国产精品电影_久久视频免费_欧美日韩国产激情_成年人视频免费在线播放_日本久久亚洲电影_久久都是精品_66av99_九色精品美女在线_蜜臀a∨国产成人精品_冲田杏梨av在线_欧美精品在线一区二区三区_麻豆mv在线看

Transformer振興CNN骨干網(wǎng)絡(luò),港大、騰訊視覺自監(jiān)督表征學習CARE

新聞 人工智能
來自港大、騰訊 AI Lab、牛津大學的研究者用 Transformer 振興 CNN 注意力。

 自監(jiān)督表征學習近兩年十分火熱。機器學習界的三位泰斗 Geoffroy Hinton、 Yann Lecun 、 Yoshua Bengio 一致認為自監(jiān)督學習有望使 AI 產(chǎn)生類人的推理能力,其中 Hinton 與 Lecun 近兩年也在 ICML / NeurIPS 中發(fā)表自監(jiān)督表征學習的研究工作。

可以說在機器學習頂會發(fā)表自監(jiān)督表征學習的文章,是與 Hinton 和 Lecun 站到了同一賽道上。而今年的 NeurIPS 2021,Lecun 剛發(fā)推感嘆他與另外一位 CV 泰斗 Jean Ponce 的自監(jiān)督投稿 VICReg 被拒掉了,可見在機器學習領(lǐng)域,自監(jiān)督學習的競爭激烈程度。另外一方面,最近熱門的 Transformer 給計算機視覺算法帶來了全面的升級。那么 Transformer 跟自監(jiān)督表征學習在一起會迸發(fā)出怎樣的火花?

來自港大、騰訊 AI Lab、牛津大學的學者在 NeurIPS 2021 發(fā)表的文章會帶來一個啟發(fā)性的答案。

該研究受現(xiàn)有自監(jiān)督表征學習架構(gòu) BYOL 的啟示,結(jié)合前沿的 Transformer ,提出利用 Transfomer 來提升 CNN 注意力的自監(jiān)督表征學習算法。本文將現(xiàn)有的架構(gòu)歸為 C-stream,另提出 T-stream。在 CNN 骨干網(wǎng)絡(luò)的輸出并行接入 T-stream。將 Transformer 置于 T-stream 中提升 CNN 輸出的注意力,并以此結(jié)果來監(jiān)督 CNN 自身的輸出,從而達到提升 CNN 骨干網(wǎng)絡(luò)注意力的效果。在現(xiàn)有的標準數(shù)據(jù)集中,也進一步提升了 CNN 骨干網(wǎng)絡(luò)在下游識別任務(wù)的各類性能。

Transformer振興CNN骨干網(wǎng)絡(luò),港大、騰訊視覺自監(jiān)督表征學習CARE
  • 論文地址:https://arxiv.org/pdf/2110.05340.pdf
  • Github 地址:https://github.com/ChongjianGE/CARE

背景和啟示:自監(jiān)督表征學習與樣本對比

基于圖像內(nèi)容的自監(jiān)督表征學習目標為訓練一個普適的視覺特征編碼器(encoder backbone)。在給定神經(jīng)網(wǎng)絡(luò)架構(gòu)(如 VGG, ResNet)的情況下,擺脫數(shù)據(jù)標注依賴構(gòu)建自監(jiān)督的過程,進行從零開始的初始化訓練(pretext training)。將訓練好的網(wǎng)絡(luò)認為類似于用 ImageNet 標注數(shù)據(jù)預訓練的結(jié)果,后續(xù)將該網(wǎng)絡(luò)進行一系列下游識別任務(wù)的遷移(downstream finetuning),包括圖像分類,物體檢測和分割。由于在初始化訓練中未使用數(shù)據(jù)標簽做約束,預訓練的網(wǎng)絡(luò)表征并不針對下游具體的某個識別任務(wù),從而具備普適的視覺表征能力。其潛在的應(yīng)用在于利用海量的互聯(lián)網(wǎng)數(shù)據(jù),擺脫人工標注的、依賴自適應(yīng)學習神經(jīng)網(wǎng)絡(luò)的視覺表征能力,從而能夠受益于一系列的下游識別任務(wù)。自監(jiān)督學習在下游識別任務(wù)中可以媲美有監(jiān)督學習。

在自監(jiān)督表征學習的研究中,對比學習 (contrastive learning) 為常用的方法。給定一批未標注的數(shù)據(jù),以當前一個數(shù)據(jù)為正樣本,其余數(shù)據(jù)為負樣本。對比學習通過這樣的方式,構(gòu)建正負樣本及其增廣的數(shù)據(jù)來確定損失函數(shù)從而訓練網(wǎng)絡(luò)。其中一個輸入數(shù)據(jù)通過兩路網(wǎng)絡(luò)形成兩個不同的 view,進行后續(xù)的樣本對比。在處理海量數(shù)據(jù)的過程中,有效的從數(shù)據(jù)中構(gòu)建樣本和防止模型坍塌成為了熱門研究方向。從 MoCo[a]的隊列設(shè)計及網(wǎng)絡(luò)動量更新開始,一系列的研究工作應(yīng)運而生。這里介紹幾個代表性的工作,為簡潔起見,算法框架圖中的映射器 (projector) 沒有畫出:

Transformer振興CNN骨干網(wǎng)絡(luò),港大、騰訊視覺自監(jiān)督表征學習CARE

SimCLR

上圖為 Hinton 團隊的 SimCLR[b]算法框架,其采用 large batch 的設(shè)計,擺脫隊列存儲的依賴,直接對正負樣本進行對比構(gòu)造損失來更新網(wǎng)絡(luò)。

Transformer振興CNN骨干網(wǎng)絡(luò),港大、騰訊視覺自監(jiān)督表征學習CARE

BYOL

上圖為 DeepMind 團隊的 BYOL[c]算法框架,其單純利用當前樣本進行自身的多種數(shù)據(jù)增廣進行對比。同時引入 projector 來擺脫上下游任務(wù)對于網(wǎng)絡(luò)的影響。在更新網(wǎng)絡(luò)時也采用了動量更新的方式防止模型的坍塌。

Transformer振興CNN骨干網(wǎng)絡(luò),港大、騰訊視覺自監(jiān)督表征學習CARE

MoCo V3

上圖為 Kaiming He 團隊的 MoCo V3[d],其將 transformer 做為學習編碼器(encoder backbone),利用現(xiàn)有的自監(jiān)督學習框架進行樣本對比學習。同時也是將 vision transformer (ViT[e])作為編碼器引入自監(jiān)督學習中的工作之一。

Transformer振興CNN骨干網(wǎng)絡(luò),港大、騰訊視覺自監(jiān)督表征學習CARE

本文方法

與 MoCo V3 的出發(fā)點不同,本文的工作旨在利用 transformer 的自注意力機制來提升 CNN 編碼器的性能。其中將原有的 CNN 框架歸為 C-stream,然后提出包含 Transformer 的 T-stream。兩個 stream 同時接收 CNN 編碼器的輸出,然后用 T-stream 監(jiān)督 C-stream。相比于 Yann Lecun 團隊的 Barlow Twins[f]利用協(xié)方差矩陣衡量兩個 view 的冗余,本文引入可學習的 transformer 能夠自適應(yīng)的在不同網(wǎng)絡(luò)訓練狀態(tài)下提供注意力的輔助,從而更有效的提升 CNN 編碼器的視覺表征能力。

本文的方法:CARE (CNN Attention REvitalization)

Transformer振興CNN骨干網(wǎng)絡(luò),港大、騰訊視覺自監(jiān)督表征學習CARE

Proposed pipeline

本文提出的算法流程圖如上所示。首先將輸入圖像x進行兩次不同的預處理得到兩個正樣本x_1、x_2。然后,用 C-stream 的兩個 CNN 編碼器分別提取x_1、x_2的特征,其中將一路 CNN 提取的特征輸入映射器 projector1 和預測器 predictor1 得到高維特征f_1(x),同時將另一路 CNN 提取的特征僅輸入動量更新的映射器 (momentum projector1) 得到高維特征f_2(x)。此外,雙路 CNN 提取的這兩組特征也會被同時輸入到 T-stream。其中一路的 Transformer1 提取具有空間注意力的特征,并將此特征輸入到映射器 projector2 和預測器 predictor2 得到高維特征f_3(x)。另一路動量更新的 Transformer 同樣提取 CNN 特征并輸入動量更新的映射器 momentum projector2 得到高維特征f_4(x)。

至此,算法框架的前向過程已經(jīng)設(shè)計完成。后續(xù)通過對f_1(x)、f_2(x)、f_3(x)、f_4(x)進行針對性的損失函數(shù)設(shè)計進行反向傳播的學習。本算法在反向傳播過程中,僅更新 C-stream 以及 T-stream 的其中一路,而對應(yīng)的另外一路則利用動量更新 (momentum update) 的手段進行。具體形式在后續(xù)介紹。

網(wǎng)絡(luò)架構(gòu)設(shè)計:本算法旨在通過自監(jiān)督學習框架的搭建,利用自定義的輔助任務(wù)來學習一個能夠有效提取圖像特征的 CNN 編碼器。本算法對任意的 CNN 編碼器均具有一定的適用性,因此在 CNN 編碼器的選取上有著很好的靈活性。例如,ResNet50,ResNet101 以及 ResNet152 皆可以作為本算法的 CNN 編碼器。Transformer 的結(jié)構(gòu)如下圖所示:

Transformer振興CNN骨干網(wǎng)絡(luò),港大、騰訊視覺自監(jiān)督表征學習CARE

Transformer 結(jié)構(gòu)示意圖

該 Transformer 以 CNN 編碼器輸出為輸入,并輸出f_1(x)、f_2(x)、f_3(x)、f_4(x)更具空間專注度性質(zhì)的特征。本算法所設(shè)計的 Transformer 主要包括 4 個串行的模塊,其中單個模塊如上圖所示。單個模塊主要包含由一個 1x1 的卷積層,一個多頭自注意力層(Multi-head Self-attention, MHSA)[g]以及額外一個 1x1 卷積層組成。其中 MHSA 層可以很好地學習到具有空間專注度性質(zhì)的特征。此外,映射器 projector 和預測器 predictor 的主要結(jié)構(gòu)為多層感知器(Multi-layer perceptron)。兩者皆包含兩個全線性連接層(fully connected layers),一個激活層以及一個標準化層(batch normalization)。

本文設(shè)計的損失函數(shù)基于流程框架中的四個輸出f_1(x)、f_2(x)、f_3(x)、f_4(x)。其中本文用

Transformer振興CNN骨干網(wǎng)絡(luò),港大、騰訊視覺自監(jiān)督表征學習CARE

表示 C-stream 的損失項,用

Transformer振興CNN骨干網(wǎng)絡(luò),港大、騰訊視覺自監(jiān)督表征學習CARE

表示 T-stream 的損失項。其具體形式如下:

Transformer振興CNN骨干網(wǎng)絡(luò),港大、騰訊視覺自監(jiān)督表征學習CARE

此外,本文用 T-stream 的輸出來監(jiān)督 C-stream 的輸出。這個約束用

Transformer振興CNN骨干網(wǎng)絡(luò),港大、騰訊視覺自監(jiān)督表征學習CARE

表示,具體形式如下:

Transformer振興CNN骨干網(wǎng)絡(luò),港大、騰訊視覺自監(jiān)督表征學習CARE

該約束表明在自監(jiān)督學習中,C-stream 的輸出會與 T-stream 的輸出盡量相似。所以最終整體的損失函數(shù)可以由如下表示:

Transformer振興CNN骨干網(wǎng)絡(luò),港大、騰訊視覺自監(jiān)督表征學習CARE

在計算整體損失后,本算法只后向傳播梯度更新 C-stream 和 T-stream 的上支。其下路分支主要通過動量更新的方式來更新參數(shù)。所謂動量更新指的主要是利用當前 C-Stream 和 T-Stream 的上路分支的參數(shù),以及其之前時刻的參數(shù)信息,來動量更新其下路分支的網(wǎng)絡(luò)參數(shù)。在網(wǎng)絡(luò)訓練結(jié)束后,只保留 CNN encoder1 作為目標編碼器。該編碼器隨后會用做下游識別任務(wù)的 backbone 網(wǎng)絡(luò)。

可視化分析:CNN 編碼器的注意力展示

在自監(jiān)督訓練結(jié)束后,本文對 CNN 編碼器進行特征響應(yīng)的可視化展示,從而觀察編碼器在訓練后對視覺內(nèi)容關(guān)注程度的變化。本文對同樣的編碼器進行兩種自監(jiān)督策略,一種是只使用 C-stream 的結(jié)構(gòu)進行訓練,一種是使用全部結(jié)構(gòu)進行訓練。本文對這兩種訓練策略下的同樣的編碼器進行可視化展示,如下圖所示:

Transformer振興CNN骨干網(wǎng)絡(luò),港大、騰訊視覺自監(jiān)督表征學習CARE

CNN 編碼器的注意力可視化展示

從圖中可以看到,第一行為輸入圖像,第二行為單純利用 C-stream 結(jié)構(gòu)進行訓練的編碼器的注意力,第三行為利用本文提出 CARE 結(jié)構(gòu)進行訓練的編碼器的注意力。通過觀察注意力在圖像上面的分布和強度可以看出,本文提出的 CARE 算法訓練的編碼器對圖像中的物體更敏感,注意力更強烈。

實驗結(jié)果

在實驗過程中,本文從多個方面驗證提出算法的有效性。包括上游訓練好的模型在線性分類問題中的性能、在半監(jiān)督數(shù)據(jù)中的效果,以及在下游物體檢測和分割任務(wù)中的性能。在骨干網(wǎng)絡(luò)模型選擇方面,本文選取了 CNN 通用的 ResNet 系列模型進行訓練。對比模型為 ResNet 系列和 Transformer 結(jié)構(gòu)。驗證的方式為利用不同的自監(jiān)督學習算法在多種模型上進行各類任務(wù)不同訓練階段中的性能驗證。在本文算法的訓練過程中,使用 8 卡 V100 算力即可進行模型訓練的收斂。在當前海量算力的視覺自監(jiān)督表征學習任務(wù)下相對算力友好。

上游任務(wù)線性分類的比較。在固定 ResNet-50 為骨干網(wǎng)絡(luò)情況下,針對不同的自監(jiān)督學習算法進行訓練,展示在不同訓練階段的線性分類效果。如下圖所示,本文提出的 CARE(CNN attention revitalization)方法取得的優(yōu)異的表現(xiàn)。

Transformer振興CNN骨干網(wǎng)絡(luò),港大、騰訊視覺自監(jiān)督表征學習CARE

此外,本文也與 BYOL 方法在 ResNet 不同骨干網(wǎng)絡(luò)、不同訓練階段的性能進行對比,如下圖所示。本文的 CARE 方法在不同骨干網(wǎng)絡(luò)下性能更佳。

Transformer振興CNN骨干網(wǎng)絡(luò),港大、騰訊視覺自監(jiān)督表征學習CARE

以上為相同骨干網(wǎng)絡(luò)、不同學習算法的對比。本文同時也對比了 Transformer 的骨干網(wǎng)絡(luò)以及現(xiàn)有的學習算法。效果如下圖所示,跟 Transformer 結(jié)構(gòu)相比,本文利用 ResNet 網(wǎng)絡(luò),在參數(shù)量相近的情況下,取得了更好的結(jié)果。

Transformer振興CNN骨干網(wǎng)絡(luò),港大、騰訊視覺自監(jiān)督表征學習CARE

更多的實驗對比,以及 CARE 算法的 Ablation Study 詳見文章中的實驗章節(jié)。

總結(jié)

綜上,本文提出了一個利用 Transformer 結(jié)構(gòu)來輔助 CNN 網(wǎng)絡(luò)訓練的視覺自監(jiān)督表征學習框架。其核心貢獻在于利用一種網(wǎng)絡(luò)結(jié)構(gòu)的特性(即 Transformer 的注意力提升特性),在訓練中監(jiān)督目標網(wǎng)絡(luò)(即 CNN 骨干網(wǎng)絡(luò)),從而使得網(wǎng)絡(luò)特性能夠得到遷移并提升目標網(wǎng)絡(luò)性能的效果。在視覺識別的各類任務(wù)中也得到了充分驗證。本文的框架對自監(jiān)督表征學習具有很強的啟示意義,現(xiàn)有網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計繁多,功能各異。如何利用這些網(wǎng)絡(luò)獨有的特點,進而集成在一個網(wǎng)絡(luò)中達到渾然一體的目標,也是后續(xù)自監(jiān)督表征學習可探索的重要方向。

 

責任編輯:張燕妮 來源: 機器之心Pro
相關(guān)推薦

2025-06-05 02:15:00

Mamba視覺網(wǎng)絡(luò)

2025-01-09 11:14:13

2025-03-10 08:47:00

模型AI訓練

2017-08-15 22:35:54

自監(jiān)督學習視覺傳遞

2022-04-26 09:44:29

算法庫EasyCV開源

2024-07-30 11:20:00

圖像視覺

2024-05-24 15:53:20

視覺圖像

2024-06-13 11:44:43

2021-07-08 15:39:50

機器學習人工智能計算

2021-07-14 07:30:51

網(wǎng)絡(luò)建設(shè)互聯(lián)網(wǎng)骨干網(wǎng)絡(luò)

2023-07-22 13:17:33

人工智能框架

2025-04-25 08:00:00

2020-06-19 10:54:07

代碼開發(fā)工具

2019-07-10 05:47:37

GAN無監(jiān)督表征學習機器學習

2012-03-12 10:01:21

2023-12-28 09:49:19

AI工具模型

2012-03-27 16:40:54

2013-09-18 09:24:47

2012-03-24 14:04:37

2010-08-20 15:06:38

點贊
收藏

51CTO技術(shù)棧公眾號

亚洲高清黄色| 95精品视频在线| 成人午夜电影在线播放| 在线视频91p| 激情深爱一区二区| 日本久久精品视频| 无人区在线高清完整免费版 一区二| 亚洲一区二区三区小说| 真人做人试看60分钟免费| 先锋资源久久| 久久久日本电影| 播放一区二区| 日韩欧美三级在线| 日本欧美韩国| 天天人人精品| 国产污视频在线播放| 亚洲成在人线免费| 青青在线视频观看| 免费一区二区视频| 99精品99久久久久久宅男| 国产成人精品福利| 日韩高清不卡av| 国产精品剧情| 色综合久久久久综合99| 最近最好的中文字幕2019免费| xnxx国产精品| 艳母动漫在线观看| 亚洲欧美清纯在线制服| 国产精品69久久| 91久久精品无嫩草影院| 亚洲一级免费视频| 绿色成人影院| 亚洲福利视频在线| www.欧美日本韩国| 91精品国产综合久久福利软件| 成人性爱视频在线观看| 色综合久久久久综合体桃花网| 中文字幕在线影视资源| 一区二区高清免费观看影视大全| wwwav91| 亚洲人精品一区| jizz18女人| 亚洲欧美电影一区二区| 能在线观看av网站| 午夜国产精品一区| 日韩av高清在线| 色狠狠一区二区三区香蕉| 资源视频在线播放免费| 欧美va亚洲va在线观看蝴蝶网| 超碰成人福利| 色综合久久天天| 在线观看av网页| 国产精品福利影院| 中文在线а√天堂官网| 日韩三级视频在线看| 成人毛片视频在线观看| 国产日韩欧美不卡在线| 亚洲婷婷在线视频| 曰韩少妇与小伙激情| 色一情一乱一乱一91av| 九色在线视频蝌蚪| 欧美一区二区三区四区在线观看 | 亚洲日本黄色| 亚洲一区二区在线免费观看| 国产成人精品一区二| 国产a级一级片| 亚洲国产视频a| 日本高清成人vr专区| 日韩中文字幕在线播放| 天堂网av成人| 国产精品免费看一区二区三区| 首页国产欧美日韩丝袜| 人妻无码一区二区三区四区| 亚洲精品视频免费观看| wwwav在线| 久久精品视频在线| 91精品久久久久久久久久不卡| 色播亚洲视频在线观看| 欧美国产日韩a欧美在线观看| 九色在线播放| 中文字幕成人精品久久不卡| 亚洲春色h网| 日韩一区免费观看| 中文一区二区在线观看| 1stkiss在线漫画| 久久国产精品电影| 欧美日韩日本国产亚洲在线| 波多野结衣av一区二区全免费观看| 亚洲乱码国产乱码精品精98午夜| 亚洲s色大片| 久久久人成影片一区二区三区观看| 亚洲激情综合| 日本成人免费| 国产精品国产自产拍高清av | 日韩欧美一区二区三区四区五区 | 色系网站成人免费| 国产精品白丝久久av网站| 成人激情av| 欧美激情一区二区三区四区| 人妖欧美1区| 国产精品一区二区三区在线播放| 亚洲在线成人精品| 91视频观看视频| 97国产精东麻豆人妻电影| 欧美性大战久久久| 亚洲一级一区| 99精品视频在线观看免费| 在线精品日韩| 亚洲高清三级视频| 精品国产麻豆| 亚洲国产一区二区精品视频| 亚洲va欧美va国产va天堂影院| 国产亚洲高清在线观看| 一区二区三区四区五区视频| 日本乱人伦一区| 日韩av中文字幕一区| 亚洲精品一二三四五区| 日韩麻豆第一页| 日本欧美韩国一区三区| 成人在线免费看| 国产精品久久久久久av下载红粉| 国产日韩影视精品| 国产一区高清| 国产在线播放观看| 亚洲人成在线一二| 国内精品免费在线观看| 七七成人影院| 日本一区不卡| 欧美一区二区视频网站| 国产日韩欧美三区| 黄色一级片在线观看| 精品一区二区国产| 日韩免费高清视频| 免费一级欧美片在线播放| 日韩理伦片在线| 激情小说综合区| 欧美日韩成人一区二区| 亚洲福利免费| 免费高清在线观看| 先锋影音一区二区三区| 亚洲国产日韩欧美在线图片 | 国产精品自拍毛片| 婷婷激情一区| 欧美日韩不卡在线视频| 欧美激情xxxx| 亚洲欧美日韩国产另类专区| 成人精品中文字幕| 视频午夜在线| 欧美不卡在线一区二区三区| 日韩精品在线一区二区| 北条麻妃国产九九精品视频| 999色成人| 国产夫妻在线视频| 91亚洲精品久久久久久久久久久久| 国产亚洲综合久久| 成人午夜免费av| 91久久精品美女高潮| 激情自拍一区| 成人影欧美片| 日本一区二区成人在线| 国产h在线观看| 欧美精品一区二区三区在线看午夜 | 女人体1963| 国产一区二区在线观看免费播放| 亚洲精品动漫100p| 国产亚洲欧美日韩俺去了| 亚洲va久久| 国产福利在线播放麻豆| 天堂а√在线中文在线| 久久免费少妇高潮久久精品99| 亚洲va国产天堂va久久en| 免费在线亚洲欧美| 亚洲精品毛片| 青青在线视频观看| 96国产粉嫩美女| 亚洲男人的天堂在线| 一区二区国产盗摄色噜噜| 国产精品日本| 欧美1区2区3| 91ph在线| 人妻丰满熟妇av无码区app| 成人欧美一区二区| 中文字幕国内精品| 在线免费观看不卡av| www.激情成人| 在线看片欧美| 视频一区国产| 性欧美video另类hd尤物| 国产精品第一| 一级片在线免费看| 日韩伦理在线免费观看| 91在线播放视频| 欧美激情第三页| 亚洲天堂av在线播放| 日韩欧美国产网站| 国产人妖乱国产精品人妖| 韩国女主播成人在线观看| aa亚洲婷婷| 午夜欧美在线| 青青一区二区三区|