国产精品电影_久久视频免费_欧美日韩国产激情_成年人视频免费在线播放_日本久久亚洲电影_久久都是精品_66av99_九色精品美女在线_蜜臀a∨国产成人精品_冲田杏梨av在线_欧美精品在线一区二区三区_麻豆mv在线看

打破不可能三角、比肩5400億模型,IDEA封神榜團隊僅2億級模型達到零樣本學習SOTA

人工智能 新聞
本文是 IDEA 封神榜團隊的楊平和王軍杰為大家帶來論文解讀。

自從 GPT-3 問世,展現出千億級模型的強大實力以來,NLP 任務面臨著規模、樣本、Fine-tuning 性能的不可能三角。如何在保證 10 億參數以下的語言模型可以達到 SOTA 的 Few-Shot (甚至是 Zero-shot)還有 Fine-tuning 的性能?一定要上千億的參數并且忍受不穩定的 prompt 提示才可以解決 zero-shot 場景嗎?本文中,IDEA 研究院封神榜團隊介紹了一種新的「表現型」UniMC,僅有 2 億參數即可達到 Zero-shot 的 SOTA。相關工作已經被 EMNLP 2022 接收。

在今年的一篇文章 [1] 中指出,自預訓練技術被提出以來,NLP 界一直存在著一個不可能三角(如下圖 1),即一個模型不能同時滿足:

  1. 中等模型大小(10 億以下);
  2. SOTA 的 Few-Shot (甚至是 Zero-shot)性能;
  3. SOTA 的 Fine-tuning 性能。

圖片

圖 1

不可能三角存在的原因是,當前預訓練模型的參數量只有達到一定的數量級,并且使用提示學習才能體現出強大的 few/zero-shot 性能。

最近我們封神榜團隊被 EMNLP 2022 收錄的論文:《Zero-Shot Learners for Natural Language Understanding via a Unified Multiple Choice Perspective》則打破了這一「魔咒」,提供了一個靈活高效的解決思路。我們的論文提出的 UniMC 在擁有模型參數量很小(僅僅是億級)和 SOTA 的 Fine-tuning 能力的前提下,同時還能擁有(與 5400 億的 PaLM 相當的) SOTA 的 Few/Zero-Shot 性能

圖片?

  • 論文地址:https://arxiv.org/abs/2210.08590
  • 模型開源地址:https://github.com/IDEA-CCNL/Fengshenbang-LM/tree/main/fengshen/examples/unimc/

技術背景

2018 年 BERT 的提出,標志著整個 NLP 領域進入一個預訓練時代,NLP 的百尺竿頭終于更進一步。現有的模型如 DeBERTa 等預訓練掩碼語言模型(PMLM)已經可以在 10 億級以下的參數做到 fine-tuning 的 SOTA 了,但是面對 Zero-shot 場景下的 NLU 任務時表現無力。

原因在于,使用 PMLM 的時候,我們需要在其頂部針對具體任務增加一個 MLP 層,如圖 2(c)。并且,這個 MLP 層會增加額外的參數,這使得這種方法面對 Zero-shot 場景時,只能選擇隨機初始化,根本沒辦法獲得合理的輸出。而且,在 finetuning 的場景下,增加 MLP 層也會造成不同任務之間是無法遷移的(比如,2 分類和 3 分類任務之間無法遷移)。

針對 Zero-shot 場景,近年來的主流做法是利用上百億乃至千億的預訓練語言模型(PLM)統一將 NLU 任務轉化為文本生成任務,這樣可以通過人工構造 prompt 或者是人工設計 verbalizer 使得大模型可以應用于 zero-shot 任務上,如圖 2(a)。進一步地,FLAN 論文中,使用了大量人工構造的模版來統一了不同的任務,使得別的任務的知識可以遷移到特定任務上,如圖 2(b)。不過,這樣的生成模型具有以下缺點:

  • 生成模型需要將 verbalizer(標簽描述)給生成出來,而 verbalizer 通常由人工進行編寫,不同的 verbalizer 會導致較大的性能差異;
  • prompt 也需要人工設計,不同的 prompt 會極大影響下游任務的效果;
  • 生成模型在推理時,需要自回歸的生成答案,速度較慢。并且一般是單向的,無法像 BERT 一樣可以獲取雙向信息;
  • 為保證 few/zero-shot 性能,生成模型參數量往往較大,達到 GPT-3 的 1750 億或者是 PaLM 的 5400 億;
  • 雖然 FLAN 的 Instruction tuning 可以遷移別的任務的知識到特定任務上,但是面對不同任務需要新的訓練。比如,評估 A 時,需要在 BCDE 上訓練;評估 B 時,需要在 ACDE 上訓練。

而我們提出了圖 2(d)中 UniMC 的方法,避免了上述問題,并且在中英文數個任務中達到了 SOTA 或者是與最先進模型相近的表現。

圖片

圖 2

UniMC(一個新的模型表現型)

模型思路?

大部分的 NLU 任務都是基于標簽的,而生成模型需要將標簽給生成出來,這無疑是加重了任務的難度和模型的學習成本。對于許多基于標簽的任務(Label-based Task)來說,通常只需要給定輸入文本,輸出文本屬于每種 label 的概率即可。基于這個思路,我們將 NLU 任務轉化為多項選擇任務(Multiple-Choice)。即給定文本、問題和選項,輸出每個選項的概率,而不需要將選項生成出來。

在此基礎之上,我們提出一個新的概念:模型的表現型。現有的模型表現型,都是在后面添加某個層,比如分類層。或者是,生成模型 GPT 的表現型是通過 Prompt 來挖掘模型的知識。而我們提出的 UniMC 方案不需要在 PMLM 引入任何額外的層,挖掘了另一種 PMLM 的表現型

在本論文中,我們選擇了 ALBERT 作為我們的骨干 PMLM 網絡。

統一的多項選擇格式

如圖 3,我們希望把基于標簽的 NLU 任務都轉換成統一的 MC(Multiple-Choice)格式。我們的理念是,盡可能少添加人工信息。

圖片

圖 3

具體地說,我們做了如下兩步:

  • 把 label 變成 option;
  • 選擇是否添加 question prompt(question 基本來自數據集的描述)。

優點:只設計了一種 option prompt,設計一種或者是沒有 question prompt

模型結構?

UniMC 的結構如下圖 4 所示,它采用類似于 BERT 的自編碼結構。主要流程為,我們先統一好不同任務的輸入,并且限制好輸入信息之間的流通性,經過 PMLM 之后,利用 O-MLM、OP 和 MLM 進行 MC training,最后使用 O-MLM 和 OP 進行 zero-shot 預測。接下來我將一步一步地拆解我們的方案。

圖片

圖 4

輸入 Input ?

如圖 5 紅色實線框區域內容。在輸入到 UniMC 之前還要處理一下,變成 UniMC 特有的 token 格式。為了提升計算效率,我們將所有選項與問題和文本進行直接拼接,即 [Options, Question, Passage]。并且我們在每一個選項的前面插入一個特殊的 token,[O-MASK],用來表示 yes 或 no(選不選這個選項)。(注,為了可以提高復用性,我們復用了[MASK] token。

如圖 5 綠色虛線框區域內容。我們需要考慮輸入信息源太多,有選項信息、問題信息和文本段信息。它們之間的信息會相互影響,所以我們希望隔絕不同的信息。比如,我們在輸入的時候,假如可以看到別的選項,那么這道題的難度就下降了,模型會有惰性。

因此我們進行了如下考慮:

  • 使用 Segment ID,告訴模型 option 和 context(question,passage)信息是不同的;
  • 修改 Postion ID,需要模型同等地看待不同 option 的位置信息;
  • 修改 Attention Mask 矩陣,避免模型可以看到不同 option 的信息導致模型產生惰性。

圖片

圖 5

模型如何做選擇題?(O-MLM 和 OP) 

如圖 6,我們利用 O-MLM 和 OP 任務來讓模型可以去「選擇」答案。O-MASK 完全繼承于 MASK token(具體地,為了不添加額外的參數以及充分利用模型在無監督預訓練階段所學習到的知識,我們復用了 MaskLM head 的參數)。唯一不同的是,它是 100% 被 mask 的。O-MLM 任務的目標就是把 O-MASK 解碼出 ‘yes’  或 ‘no’,其用來預測該選項是否被選擇。

而 OP 任務的作用在于,從各個選項的‘yes’中預測答案。具體地,我們取每個  [O-MASK]  輸出的 ‘yes’ 的 logit 進行 softmax 得到每個選項的概率,取概率最大的的選項最為預測答案即可。

圖片

圖 6

在一個 Batch 中處理多個 MC 任務

如圖 7,我們希望在一個 batch 中放入多個 MC 數據集,這樣可以增強模型的能力,而且,也更加統一(Unified)。我們在構建 batch 的時候,發現了一個問題:假如,一個 batch 里面有不同選項的 sample 呢?

所以我們在輸出的前面,再設計了一個 logit mask 的方法。直接給無關的 token 賦予一個負無窮大的預測值,加起來,我們就可以在計算 softmax 的時候消除別的 token 對于 O-MASK 的影響了。并且,不同數量的多項選擇題可以在一個 batch 中統一處理。?

圖片

圖 7

模型訓練和預測

MC Training?

與 FLAN 的 Instruction Tuning 不同,我們僅僅在 MC 數據集上進行訓練,這主要是為了讓模型學會如何做選擇題,并且 MC 數據集具有一定的通用性,比如,不同的數據集可能由數量不等的標簽組成。

圖片

圖 8

Zero-shot Inference

有趣的是,我們可以發現,這兩個任務,是可以在 Training 和 zero-shot inference 兩個階段擁有一致性的。這是因為我們都是使用了 O-MLM 和 OP 兩個任務來實現讓模型做選擇題。并且由于我們拋棄了分類層,所有的參數都可以復用,這樣一來就激活了 PMLM 的 Zero-shot 能力。

圖片

圖 9

UniMC 性能 

英文場景?

我們收集了 14 份 multiple -choice 任務進行預訓練,然后做其他 NLU 任務進行 zero-shot 性能測試。在 4 個 NLI 任務中, UniMC 取得了 SOTA 并且超越 5400 億參數的 PaLM 模型。

圖片

圖 10

并且我們在分類任務上擊敗了以 GPT-2 和 GPT-3 為骨干的網絡。對于非常困難的 Dbpedia 任務,高達 13 個類別,甚至可以達到 88.9% 的超高準確率。

圖片

圖 11

為了探究 UNIMC 的泛化性,我們和 FLAN 做了對比。可以看到,我們的 UniMC 幾乎可以在所有任務中超越 FLAN 或者是接近。

圖片

圖 12

中文場景

在中文場景中,我們收集了 40 份有監督數據集,并統一構造成為 MC 的任務形式對 UniMC 模型進行預訓練,然后在 FewCLUE 和 ZeroCLUE 的 9 個任務上進行測試。截止 2022 年 8 月 30 日,UniMC 取得了 FewCLUE 和 ZeroCLUE 雙榜第一(圖中的二郎神 - UnifiedMC 即為 UniMC)。

圖片

圖 13

圖片

圖 14

總結

我們提出了一個新穎的 Zero-shot 場景下的 NLU 任務的解決方案,僅利用億級的參數量就戰勝了千倍參數量的復雜大模型。

此外,我們幾乎沒有引入任何的人工信息。并且克服了 BERT 類模型的預訓練和微調不一致的問題,我們的訓練和預測是具有一致性的。我們甚至可以做到一次訓練,多次 zero-shot 預測,極大地節約了算力成本。?目前 IDEA 封神榜團隊已經推出了超過 70 個預訓練大模型。

  • 模型:https://huggingface.co/IDEA-CCNL
  • 封神榜總論文(中英雙語):https://arxiv.org/abs/2209.02970
  • 封神榜主頁:https://github.com/IDEA-CCNL/Fengshenbang-LM

引用

[1]Impossible Triangle: What's Next for Pre-trained Language Models?https://readpaper.com/paper/4612531641570566145

責任編輯:張燕妮 來源: 機器之心
相關推薦

2021-02-21 14:05:02

區塊鏈比特幣安全

2025-02-06 11:25:50

2024-01-24 13:08:00

2025-08-11 06:41:27

2022-11-02 13:47:13

開源自然語言

2019-02-13 10:55:00

2025-08-01 01:00:00

AI AgentRWA代幣化Agent

2025-11-04 04:00:00

Ditto視頻編輯

2021-12-15 13:51:31

區塊鏈安全特幣

2022-04-25 14:51:51

模型訓練人工智能

2021-10-29 22:57:18

區塊鏈安全去中心化

2021-09-08 17:23:33

谷歌模型開發

2021-05-28 22:37:33

區塊鏈比特幣以太坊

2025-12-01 08:35:00

AI機器視覺模型

2025-02-07 10:10:05

MusicMagus擴散模型音樂編輯

2021-07-24 10:19:14

AI 數據克隆

2025-07-04 16:45:24

AI模型評測

2023-06-09 12:56:17

AlpacaWizardLMVicuna
點贊
收藏

51CTO技術棧公眾號

欧美一区二区三区影视| 久久久久免费视频| 久久av最新网址| 免费一级片91| 免费在线看黄色片| 91影视免费在线观看| 国产美女久久久| 国产男女无遮挡| 亚洲精品国精品久久99热| 一级做a爱片久久| 亚洲精品永久免费| 国产精品视频看| 国产亚洲欧美一区二区三区| 国产精品亚洲欧美一级在线| 5566成人精品视频免费| 亚洲第一偷拍| 成人网页在线观看| 精品久久久久久最新网址| 欧美精品hd| 欧美人与物videos| 欧美激情中文字幕| 欧美日韩一区二区三区在线电影| 精品无人国产偷自产在线| 亚洲男人天堂九九视频| 久久久国产一区二区| 亚洲美女福利视频网站| 精品国内片67194| 欧美一级片免费看| 中文字幕亚洲欧美一区二区三区| 亚洲三级黄色在线观看| 日韩中文字幕在线观看| 一区二区三区高清国产| 精品人伦一区二区色婷婷| 亚洲视频第一页| 久久在线视频在线| 日本精品视频在线观看| 91亚洲精品在线观看| 最新视频 - x88av| 香港经典三级在线| 超碰在线caoporn| 亚洲欧美日韩另类精品一区二区三区| 国产精品视频久久| 国产cdts系列另类在线观看| 色妞欧美日韩在线| 日韩精品影院| 国产精品第一第二| 免费av成人在线| 亚洲日本va中文字幕久久| 欧美剧在线观看| 国产日本欧美一区二区| 国产精品久久久久久av公交车| 成人短视频在线观看| 欧美国产视频在线观看| 国产精品入口日韩视频大尺度| 久久在线观看免费| 色黄视频在线观看| 欧美一区2区| 日韩精品一区二区三区中文在线| 97久久中文字幕| 91在线国产观看| 97影院秋霞午夜在线观看| 都市激情久久久久久久久久久| 久久综合九色综合97婷婷| 3d成人动漫在线| 91精品久久久久久久久久久久久| 亚洲精品欧美激情| 久久这里只有精品首页| 日本成人在线一区| 精品高清在线| 国产一区二区在线观| 国产午夜在线观看| 调教一区二区| 日本激情视频网| 欧美三级理伦电影| 成人在线观看网站| 日本在线xxx| 国产精品成人a在线观看| 免费a级在线播放| 黄色三级电影网| 亚洲午夜精品久久| 91久久精品www人人做人人爽| 欧美福利视频在线| 91精品福利在线一区二区三区 | 久久.com| 日本大胆人体视频| 一本久道久久综合| 亚洲一区二区三区加勒比| 亚洲欧美日韩精品在线| 波多野结衣久草一区| 欧美二区在线播放| 亚洲在线视频免费观看| 在线观看的日韩av| 久久香蕉av| 在线观看成人影院| 久久小说免费下载| 精品久久久久久久人人人人传媒| 国产一区 二区 三区一级| 国产999精品在线观看| 欧美福利电影网| 国产精品区一区二区三区| 日韩欧美二区| 涩爱av色老久久精品偷偷鲁| 九九热这里有精品| 又黄又爽又色视频| 国产不卡一区二区在线观看| 国产精品爽爽爽| 欧美日本乱大交xxxxx| 日本在线不卡视频一二三区| 黄色aa久久| 国产剧情在线| 99热在线网站| 午夜在线观看av| 国产女人精品视频| 欧美精品videofree1080p| 欧美日韩国产精品成人| 中文字幕一区在线观看视频| 久久精品主播| 97精品视频| 欧美久久九九| 水蜜桃久久夜色精品一区的特点 | 欧美日韩在线观看视频| 极品少妇一区二区三区精品视频| 91精品国产91久久久久久密臀| 精品91福利视频| 97精品国产一区二区三区| 精品国产一区二区三区2021| 日韩理论电影院| 精品国产乱码久久久| 韩国三级大全久久网站| 制服丝袜日韩| 亚洲美女自拍视频| 欧美精品视频www在线观看| 日韩欧美中文在线| 欧美日韩国产中文| 亚洲成人网在线| 国产亚洲精品美女久久久| 欧美哺乳videos| 在线观看www91| 成人丝袜18视频在线观看| 亚洲丁香日韩| 国产精品毛片大码女人| 日韩精品视频一区二区三区| 不卡一区视频| 91在线中字| 青春草视频在线| 成人午夜剧场免费观看完整版| 久久久国产精品一区二区三区| 成人精品鲁一区一区二区| 美女脱光内衣内裤视频久久网站 | 精品国产福利在线| 国产精品成人国产乱一区| 久久国产日韩欧美| 日韩欧美在线一区二区| 六月婷婷在线视频| 亚洲电影小说图| 五月天色综合| 国产一区日韩| 亚洲理论在线| 亚洲精品日韩综合观看成人91| 在线国产电影不卡| 毛片毛片毛片毛片| 亚洲精品视频在线观看视频| 亚洲一区二区黄| 国产有码在线一区二区视频| 国产97人人超碰caoprom| 久久久精品亚洲| 午夜成人在线视频| 亚洲一区第一页| 日韩免费中文专区| 久久白虎精品| 日韩一区二区三区精品| 欧美日韩国产成人在线免费| 国产午夜在线视频| 欧美日韩精品免费看| 国产欧美日韩小视频| 1区2区在线观看| 中文字幕不卡三区| 777久久精品一区二区三区无码| 俺去了亚洲欧美日韩| 精品成人一区二区| 91在线在线观看| 桃花色综合影院| 欧美手机视频| 一区二区三区影院| 日韩免费不卡av| 嫩草视频在线观看| 欧美人妖在线| 亚洲欧洲日产国码二区| 久久免费精品视频| 男人操女人免费软件| 午夜免费欧美电影| 色综合中文字幕国产| 欧日韩在线观看| 视频一区不卡| 96久久久久久| 日韩免费av| 91精品国产91久久久久久最新毛片 | 写真福利片hd在线观看| 91蝌蚪国产九色| 日本黄大片一区二区三区|