一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

李飛飛團隊新作SiamMAE:孿生掩碼自編碼器,刷榜視覺自監(jiān)督方法!

CVer ? 來源:新智元 ? 2023-06-12 14:18 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

【導讀】只需一個簡單操作擴展MAE,即可實現(xiàn)自監(jiān)督學習新sota!

計算機視覺領(lǐng)域,想要建立圖像和場景(scene)之間之間的對應關(guān)系是一項比較困難的任務(wù),尤其是在存在遮擋、視角改變或是物體外觀發(fā)生變化的情況下。

最近,斯坦福大學李飛飛團隊對MAE進行擴展,提出了孿生掩碼自編碼器SiamMAE(Siamese Masked Autoencoders)以學習視頻中的視覺對應關(guān)系。

666d8786-08df-11ee-962d-dac502259ad0.png

論文鏈接:https://siam-mae-video.github.io/resources/paper.pdf

先隨機采樣兩個視頻幀,并進行非對稱掩碼操作;然后SiamMAE編碼器網(wǎng)絡(luò)對兩個幀進行獨立處理,最后使用交叉注意層組成的解碼器來預測未來幀(future frame)中丟失的圖像塊。

通過對未來幀中的大部分(95%)圖像塊進行掩碼,同時保持過去幀(past frame)圖像不變,SiamMAE促使網(wǎng)絡(luò)專注于物體運動,并學習以物體為中心的表征。

6682c56a-08df-11ee-962d-dac502259ad0.gif

盡管整個網(wǎng)絡(luò)的設(shè)計概念比較簡單,但通過SiamMAE學習到的特征在視頻物體分割、姿勢關(guān)鍵點傳播和語義部分傳播任務(wù)上都優(yōu)于最先進的自監(jiān)督方法。

SiamMAE在不依賴于數(shù)據(jù)增強、基于手工跟蹤的前置任務(wù)或其他技術(shù)來防止表征崩潰的情況下,實現(xiàn)了非常有競爭力的性能。

孿生掩碼自編碼器

研究人員的目標是開發(fā)一種自監(jiān)督的方法來學習對應關(guān)系,主要是將掩碼自編碼器(MAE)模型擴展到視頻數(shù)據(jù)中。

66cad7ec-08df-11ee-962d-dac502259ad0.png

Patchify

給定具有L幀的視頻剪輯,首先隨機采樣兩個視頻幀,兩幀之間的距離通過從預定的potential frame gaps范圍中選擇一個隨機值來確定。

與原始ViT模型類似,通過將每個幀轉(zhuǎn)換為一系列不重疊的N×N個patch來拼接視頻幀。

最后,把位置嵌入加到線性投影上,并附加一個[CLS]標記,需要注意的是沒有使用時序位置嵌入。

Masking

像圖像和視頻這樣的自然信號是高度冗余的,分別表現(xiàn)為空間和時空上的冗余。

為了創(chuàng)造一個具有挑戰(zhàn)性的預測性自監(jiān)督學習任務(wù),MAEs隨機掩碼了75%的圖像patch,視頻數(shù)據(jù)的掩碼率提升到90%,并且對每幀都使用相同的掩碼率。

這種設(shè)計可以使網(wǎng)絡(luò)無法利用和學習到時間上的對應關(guān)系,避免在對應關(guān)系學習基準上達到次優(yōu)性能。

研究人員認為,不對稱的掩碼可以創(chuàng)造一個更有挑戰(zhàn)性的自監(jiān)督學習任務(wù),并且可以鼓勵網(wǎng)絡(luò)學習時間上的相關(guān)性。

所以對于采樣的兩個視頻幀,對第一幀選擇不掩碼,對第二幀選擇掩碼95%,這樣就可以將整個過去幀(entire past frame)作為輸入,網(wǎng)絡(luò)只需要將其擴散到未來中的適當位置即可,可以促進網(wǎng)絡(luò)對物體運動進行建模并關(guān)注物體的邊界。

66e9b522-08df-11ee-962d-dac502259ad0.png

為了進一步增加任務(wù)的難度,兩個視頻幀之間具有更大的時間間隔,盡管可能會導致對未來的預測變得模糊,并可能產(chǎn)生多種合理的結(jié)果,但為第二幀提供少量的patch作為輸入,可以讓網(wǎng)絡(luò)的自監(jiān)督學習變得更困難。

編碼器

研究人員探索了兩種不同的編碼器配置來處理輸入幀。

聯(lián)合編碼器(joint encoder)是圖像MAEs在一對視頻幀上的擴展,把兩幀未掩碼的圖像patch串聯(lián)起來,然后輸入到標準的ViT編碼器中進行處理。

孿生編碼器(siamese encoder)是用于比較實體的權(quán)重共享神經(jīng)網(wǎng)絡(luò),是對比表征學習方法的一個重要組件,用于對應學習(corresponding learning)時通常需要一些信息瓶頸來防止網(wǎng)絡(luò)學習的解決方案,如使用顏色通道dropout來迫使網(wǎng)絡(luò)避免依賴顏色來匹配對應關(guān)系。

在這篇論文中,研究人員使用孿生編碼器來獨立處理兩幅圖像,使用非對稱掩碼作為信息瓶頸。

解碼器

編碼器的輸出通過線性層進行投影,并加入帶有位置嵌入的[MASK] token,以生成對應于輸入幀的所有token

研究人員探索了三種不同的解碼器配置:

聯(lián)合解碼器(joint decoder)在兩幀的token串聯(lián)上使用原版Transformer模塊,其主要缺點是對GPU內(nèi)存的需求大幅增加,特別是在使用較小的patch尺寸時。

交叉自解碼器(cross-self decoder)與原版Transformer模型的編碼-解碼器設(shè)計類似,每個解碼器塊由一個交叉注意力層和一個自注意力層組成,來自第二幀的token通過交叉注意力層與第一幀的token進行注意力操作,然后通過自注意力層進行相互融合。

可以注意到,交叉注意力層在功能上類似于自監(jiān)督對應學習方法中經(jīng)常使用的affinity矩陣。

交叉解碼器(cross decoder)由交叉注意力層的解碼器塊組成,其中來自第二幀的token與來自第一幀的token進行注意力操作。

最后,解碼器的輸出序列被用來預測掩碼圖像塊中的歸一化像素值,在解碼器的預測和真實值之間使用L2損失。

實驗結(jié)果

66fbc73a-08df-11ee-962d-dac502259ad0.png

視頻物體分割

在多物體分割基準數(shù)據(jù)集DAVIS 2017上,使用480p分辨率的圖像對模型進行評估。

實驗結(jié)果可以發(fā)現(xiàn)SiamMAE明顯優(yōu)于VideoMAE(從39.3%提升到62.0%),研究人員將其歸因于VideoMAE中使用了tube掩碼方案,使得模型無法學習時間上的對應關(guān)系。

6719c7ee-08df-11ee-962d-dac502259ad0.png

與DINO類似,研究人員也發(fā)現(xiàn)降低patch的尺寸會帶來明顯的性能提升。

并且文中使用的ViT-S/8(+9.4%)模型優(yōu)于之前所有的對比學習和自監(jiān)督的對應學習方法。

67342d82-08df-11ee-962d-dac502259ad0.gif

還可以注意到盡管較大的MAE-ST模型(ViT-L/16,304M參數(shù))在隨機掩碼的情況下比VideoMAE表現(xiàn)更好,但其性能仍然落后于SiamMAE相當多。

而且在視頻上訓練的MAE與圖像MAE的表現(xiàn)相似,視頻與圖像的不同之處在于,圖像是(近似)各向同性的,時間維度是特殊的,并不是所有的時空方向都是同等可能的。

因此,對稱地處理空間和時間信息可能是次優(yōu)的。

視頻部分分割(Video Part Segmentation)

在視頻實例解析(Video Instance Parsing, VIP)基準上對SiamMAE進行評估,該基準包括為20個不同的人體部位傳播語義掩碼。

與評估的其他數(shù)據(jù)集相比,VIP特別具有挑戰(zhàn)性,因為包括更長的視頻(最長120秒)。

與先前工作類似,使用560×560的圖像和單一背景幀進行評估后,可以發(fā)現(xiàn)ViT-S/8模型性能大大超越了DINO (從39.5提升到45.9)。

6761b14e-08df-11ee-962d-dac502259ad0.gif

SiamMAE從更小的patch尺寸中,比DINO受益更多,實現(xiàn)了+8.6的mIoU評分,比DINO的+3.3 mIoU有所提高。

SiamMAE也優(yōu)于之前所有的對比學習和自監(jiān)督的對應關(guān)系學習方法。

姿勢追蹤(pose tracking)

在關(guān)鍵點傳播的任務(wù)上對SiamMAE進行了評估,需要傳播15個關(guān)鍵點,并且要求空間上的精確對應關(guān)系,使用320×320的圖像和一個單一的背景幀,SiamMAE的性能優(yōu)于所有其他模型,并且比DINO更受益于較小的patch尺寸(+14.9到+10.9 PCK@0.1)

67822ea6-08df-11ee-962d-dac502259ad0.gif

?

參考資料: https://siam-mae-video.github.io/resources/paper.pdf

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 解碼器
    +關(guān)注

    關(guān)注

    9

    文章

    1174

    瀏覽量

    41974
  • 編碼器
    +關(guān)注

    關(guān)注

    45

    文章

    3796

    瀏覽量

    138014
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1094

    瀏覽量

    41241

原文標題:李飛飛團隊新作SiamMAE:孿生掩碼自編碼器,刷榜視覺自監(jiān)督方法!

文章出處:【微信號:CVer,微信公眾號:CVer】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    基于變分自編碼器的異常小區(qū)檢測

    出來?! ”疚奶岢隽艘环N基于變分自編碼器的異常小區(qū)檢測方法,其基本原理是利用異常小區(qū)的KPI數(shù)據(jù)在通過變分自編碼器編碼與解碼過程中所產(chǎn)生的較大波動來實現(xiàn)異常檢測。實驗結(jié)果表明,該
    發(fā)表于 12-03 15:06

    是什么讓變分自編碼器成為如此成功的多媒體生成工具呢?

    標準自編碼器能學習生成緊湊的數(shù)據(jù)表達并重建輸入數(shù)據(jù),然而除了像去噪自編碼器等為數(shù)不多的應用外,它的應用卻極其有限。其根本原因在于自編碼器將輸入轉(zhuǎn)換為隱含空間中的表達并不是連續(xù)的,使得其中的插值和擾動難以完成。
    的頭像 發(fā)表于 04-19 16:48 ?1.4w次閱讀
    是什么讓變分<b class='flag-5'>自編碼器</b>成為如此成功的多媒體生成工具呢?

    自編碼器是什么?有什么用

    自動編碼器是一種無監(jiān)督的神經(jīng)網(wǎng)絡(luò)模型,它可以學習到輸入數(shù)據(jù)的隱含特征,這稱為編碼(coding),同時用學習到的新特征可以重構(gòu)出原始輸入數(shù)據(jù),稱之為解碼(decoding)。
    的頭像 發(fā)表于 08-02 16:47 ?1.8w次閱讀

    自編碼器介紹

    自編碼器若僅要求X≈Y,且對隱藏神經(jīng)元進行稀疏約束,從而使大部分節(jié)點值為0或接近0的無效值,便得到稀疏自動編碼算法。一般情況下,隱含層的神經(jīng)元數(shù)應少于輸入X的個數(shù),因為此時才能保證這個網(wǎng)絡(luò)結(jié)構(gòu)的價值。
    發(fā)表于 06-11 15:07 ?5125次閱讀

    稀疏自編碼器及TensorFlow實現(xiàn)詳解

     稀疏自編碼器(又稱稀疏自動編碼機)中,重構(gòu)誤差中添加了一個稀疏懲罰,用來限定任何時刻的隱藏層中并不是所有單元都被激活。如果 m 是輸入模式的總數(shù),那么可以定義一個參數(shù) ρ_hat,用來表示每個隱藏層單元的行為(平均激活多少次)。
    發(fā)表于 06-11 16:45 ?4067次閱讀
    稀疏<b class='flag-5'>自編碼器</b>及TensorFlow實現(xiàn)詳解

    自編碼器基礎(chǔ)理論與實現(xiàn)方法、應用綜述

    自編碼器是深度學習中的一種非常重要的無監(jiān)督學習方法,能夠從大量無標簽的數(shù)據(jù)中自動學習,得到蘊含在數(shù)據(jù)中的有效特征。因此,自編碼方法近年來受到了廣泛的關(guān)注,已成功應用于很多領(lǐng)域,例如數(shù)據(jù)分類、模式識別
    發(fā)表于 03-31 11:24 ?9次下載
    <b class='flag-5'>自編碼器</b>基礎(chǔ)理論與實現(xiàn)<b class='flag-5'>方法</b>、應用綜述

    一種多通道自編碼器深度學習的入侵檢測方法

      針對現(xiàn)有的入侵檢測方法在檢測準確率和誤報率方面存在的不足,提岀了一種多通道自編碼器深度學習的入侵檢測方法。該方法分為無監(jiān)督學習和有
    發(fā)表于 04-07 15:23 ?7次下載
    一種多通道<b class='flag-5'>自編碼器</b>深度學習的入侵檢測<b class='flag-5'>方法</b>

    一種基于變分自編碼器的人臉圖像修復方法

    基于卷積神經(jīng)網(wǎng)絡(luò)的人臉圖像修復技術(shù)在刑事偵破、文物保護及影視特效等領(lǐng)域有著重要的應用。但現(xiàn)有方法存在著圖像修復結(jié)果不夠清晰以及結(jié)果多樣化不足等缺點,為此,提出了一種基于變分自編碼器的人臉圖像修復方法
    發(fā)表于 04-21 10:51 ?10次下載
    一種基于變分<b class='flag-5'>自編碼器</b>的人臉圖像修復<b class='flag-5'>方法</b>

    基于變分自編碼器的網(wǎng)絡(luò)表示學習方法

    ,將這些信息融入到網(wǎng)絡(luò)表示學習過程中,有助于提升下游任務(wù)的性能。但是針對不同的應用場景,結(jié)構(gòu)和屬性信息并不總是線性相關(guān),而且它們都是高度非線性的數(shù)據(jù)。提岀一種基于變分自編碼器的網(wǎng)絡(luò)表示學習方法 VANRL。變分
    發(fā)表于 05-12 14:50 ?27次下載

    基于自編碼特征的語音聲學綜合特征提取

    信噪比衡量)很低。在不影響可懂度的情況下,為了提高語音増強后語音質(zhì)量,提出了一種基于自編碼特征的綜合特征。首先利用自編碼器提取自編碼特征,然后利用 Group Lasso算法驗證自編碼
    發(fā)表于 05-19 16:33 ?27次下載

    自編碼器神經(jīng)網(wǎng)絡(luò)應用及實驗綜述

    自編碼器是深度學習中的一種非常重要的無監(jiān)督學習方法,能夠從大量無標簽的數(shù)據(jù)中自動學習,得到蘊含在數(shù)據(jù)中的有效特征。因此,自編碼方法近年來受到了廣泛的關(guān)注,已成功應用于很多領(lǐng)域,例如數(shù)據(jù)分類、模式識別
    發(fā)表于 06-07 16:38 ?7次下載

    基于無監(jiān)督稀疏自編碼的圖像哈希算法

    基于無監(jiān)督稀疏自編碼的圖像哈希算法
    發(fā)表于 06-28 16:46 ?32次下載

    堆疊降噪自動編碼器(SDAE)

    自動編碼器(Auto-Encoder,AE) 自編碼器(autoencoder)是神經(jīng)網(wǎng)絡(luò)的一種,經(jīng)過訓練后能嘗試將輸入復制到輸出。自編碼器內(nèi)部有一個隱藏層 h,可以產(chǎn)生編碼(code
    的頭像 發(fā)表于 01-11 17:04 ?7265次閱讀
    堆疊降噪自動<b class='flag-5'>編碼器</b>(SDAE)

    自編碼器 AE(AutoEncoder)程序

    原文鏈接 1.程序講解 (1)香草編碼器 在這種自編碼器的最簡單結(jié)構(gòu)中,只有三個網(wǎng)絡(luò)層,即只有一個隱藏層的神經(jīng)網(wǎng)絡(luò)。它的輸入和輸出是相同的,可通過使用Adam優(yōu)化和均方誤差損失函數(shù),來學習如何重構(gòu)
    的頭像 發(fā)表于 01-11 17:29 ?1719次閱讀
    <b class='flag-5'>自編碼器</b> AE(AutoEncoder)程序

    自編碼器的原理和類型

    自編碼器(Autoencoder, AE)是一種無監(jiān)督學習的神經(jīng)網(wǎng)絡(luò)模型,它通過編碼器和解碼的組合,實現(xiàn)了對輸入數(shù)據(jù)的壓縮和重構(gòu)。自編碼器
    的頭像 發(fā)表于 07-09 11:25 ?2533次閱讀