一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

適用于任意數(shù)據(jù)模態(tài)的自監(jiān)督學習數(shù)據(jù)增強技術

OpenCV學堂 ? 來源:機器之心 ? 2023-09-04 10:07 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

本文提出了一種適用于任意數(shù)據(jù)模態(tài)的自監(jiān)督學習數(shù)據(jù)增強技術。

自監(jiān)督學習算法在自然語言處理、計算機視覺等領域取得了重大進展。這些自監(jiān)督學習算法盡管在概念上是通用的,但是在具體操作上是基于特定的數(shù)據(jù)模態(tài)的。這意味著需要為不同的數(shù)據(jù)模態(tài)開發(fā)不同的自監(jiān)督學習算法。為此,本文提出了一種通用的數(shù)據(jù)增強技術,可以應用于任意數(shù)據(jù)模態(tài)。相較于已有的通用的自監(jiān)督學習,該方法能夠取得明顯的性能提升,同時能夠代替一系列為特定模態(tài)設計的復雜的數(shù)據(jù)增強方式并取得與之類似的性能。

簡介 當前 Siamese 表征學習 / 對比學習需要利用數(shù)據(jù)增強技術來構建同一個數(shù)據(jù)的不同樣本,并將其輸入兩個并行的網(wǎng)絡結構,從而產生足夠強的監(jiān)督信號。然而這些數(shù)據(jù)增強技術往往非常依賴于模態(tài)特定的先驗知識,通常需要手動設計或者搜索適用于當前模態(tài)的最佳組合。除了耗時耗力外,找到的最優(yōu)數(shù)據(jù)增強方式也極難遷移到別的領域。例如,常見的針對于自然 RGB 圖像的顏色抖動(color jittering)無法應用于除了自然圖像以外的其他數(shù)據(jù)模態(tài)。 一般性地,輸入數(shù)據(jù)可以被表征為由序列維度(sequential)和通道維度(channel)組成的二維向量。其中序列維度通常是模態(tài)相關的,例如圖像上的空間維度、語音的時間維度以及語言的句法維度。而通道維度是模態(tài)無關的。在自監(jiān)督學習中,masked modeling [1] 或者以 masking 作為數(shù)據(jù)增強 [2] 已經(jīng)成為一種有效的學習方式。然而這些操作都作用于序列維度。為了能夠廣泛應用于不同數(shù)據(jù)模態(tài),本文提出一種作用于通道維度的數(shù)據(jù)增強手段:隨機量化(randomized quantization)。每個通道中的數(shù)據(jù)通過非均勻量化器進行動態(tài)量化,量化值是從隨機劃分的區(qū)間中隨機采樣的。通過這種方式,落在同一個區(qū)間內原始輸入的信息差被刪除,同時不同區(qū)間數(shù)據(jù)的相對大小被保留,從而達到 masking 的效果。

18f147e4-4a3f-11ee-97a6-92fbcf53809c.png

該方法在各種不同數(shù)據(jù)模態(tài)上超過了已有任意模態(tài)自監(jiān)督學習方法,包括自然圖像、3D 點云、語音、文本、傳感器數(shù)據(jù)、醫(yī)療圖像等。在多種預訓練學習任務中,例如對比學習(例如 MoCo-v3)和自蒸餾自監(jiān)督學習(例如 BYOL)都學到了比已有方法更優(yōu)的特征。該方法還經(jīng)過驗證,適用于不同的骨干網(wǎng)絡結構,例如 CNN 和 Transformer。 方法 量化(Quantization)指的是利用一組離散的數(shù)值表征連續(xù)數(shù)據(jù),以便于數(shù)據(jù)的高效存儲、運算以及傳輸。然而,一般的量化操作的目標是在不損失精確度的前提下壓縮數(shù)據(jù),因而該過程是確定性的,而且是設計為與原數(shù)據(jù)盡量接近的。這就限制了其作為增強手段的強度和輸出的數(shù)據(jù)豐富程度。 本文提出一種隨機量化操作(randomized quantization),將輸入的每個 channel 數(shù)據(jù)獨立劃分為多個互不重疊的隨機區(qū)間(1901cea2-4a3f-11ee-97a6-92fbcf53809c.png),并將落在各個區(qū)間內的原始輸入映射到從該區(qū)間內隨機采樣的一個常數(shù)190b8244-4a3f-11ee-97a6-92fbcf53809c.png。 ?

19153942-4a3f-11ee-97a6-92fbcf53809c.png

隨機量化作為自監(jiān)督學習任務中 masking 通道維度數(shù)據(jù)的能力取決于以下三個方面的設計:1) 隨機劃分數(shù)值區(qū)間;2) 隨機采樣輸出值以及 3)劃分的數(shù)值區(qū)間個數(shù)。 具體而言,隨機的過程帶來了更加豐富的樣本,同一個數(shù)據(jù)每次執(zhí)行隨機量化操作都可以生成不同的數(shù)據(jù)樣本。同時,隨機的過程也帶來對原始數(shù)據(jù)更大的增強力度,例如隨機劃分出大的數(shù)據(jù)區(qū)間,或者當映射點偏離區(qū)間中值點時,都可以導致落在該區(qū)間的原始輸入和輸出之間的更大差異。 除此之外,也可以非常容易地通過適當減少劃分區(qū)間的個數(shù),提高增強力度。這樣,當應用于 Siamese 表征學習的時候,兩個網(wǎng)絡分支就可以見到有足夠信息差異的輸入數(shù)據(jù),從而構建足夠強的學習信號,幫助到特征學習。 下圖可視化了不同數(shù)據(jù)模態(tài)在使用了該數(shù)據(jù)增強方式之后的效果:

192515d8-4a3f-11ee-97a6-92fbcf53809c.png

實驗結果模態(tài) 1:圖像 本文在 ImageNet-1K 數(shù)據(jù)集上評估了 randomized quantization 應用于 MoCo-v3 和 BYOL 的效果,評測指標為 linear evaluation。當作為唯一的數(shù)據(jù)增強方式單獨使用的時候,即將本文的 augmentation 應用于原始圖像的 center crop,以及和常見的 random resized crop(RRC)配合使用的時候,該方法都取得了比已有通用自監(jiān)督學習方法更好的效果。

19cc314c-4a3f-11ee-97a6-92fbcf53809c.png

相比于已有的針對圖像數(shù)據(jù)開發(fā)的數(shù)據(jù)增強方式,例如 color jittering (CJ),本文的方法有著明顯的性能優(yōu)勢。同時,該方法也可以取代 MoCo-v3/BYOL 中一系列復雜的數(shù)據(jù)增強方式(Full),包括顏色抖動(color jittering)、隨機灰度化(gray scale)、隨機高斯模糊(Gaussian blur)、隨機曝光(solarization),并達到與復雜數(shù)據(jù)增強方式類似的效果。

1a0d2bd4-4a3f-11ee-97a6-92fbcf53809c.png

模態(tài) 2:3D 點云 本文還在 ModelNet40 數(shù)據(jù)集的分類任務和 ShapeNet Part 數(shù)據(jù)集的分割任務上驗證了 randomized quantization 相對于已有自監(jiān)督工作的優(yōu)越性。尤其在下游訓練集數(shù)據(jù)量較少的情況下,本文的方法顯著超過已有點云自監(jiān)督算法。

1a27a96e-4a3f-11ee-97a6-92fbcf53809c.png

模態(tài) 3:語音 在語音數(shù)據(jù)集上本文的方法也取得了比已有自監(jiān)督學習方法更優(yōu)的性能。本文在六個下游數(shù)據(jù)集上驗證了該方法的優(yōu)越性,其中在最難的數(shù)據(jù)集 VoxCeleb1 上(包含最多且遠超其他數(shù)據(jù)集的類別個數(shù)),本文方法取得了顯著的性能提升(5.6 個點)。

1a3fdfac-4a3f-11ee-97a6-92fbcf53809c.png

模態(tài) 4:DABS DABS 是一個模態(tài)通用自監(jiān)督學習的基準,涵蓋了多種模態(tài)數(shù)據(jù),包括自然圖像、文本、語音、傳感器數(shù)據(jù)、醫(yī)學圖像、圖文等。在 DABS 涵蓋的多種不同模態(tài)數(shù)據(jù)上,我們的方法也優(yōu)于已有的任意模態(tài)自監(jiān)督學習方式。

1a68cf48-4a3f-11ee-97a6-92fbcf53809c.png

審核編輯:彭菁

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 傳感器
    +關注

    關注

    2565

    文章

    52987

    瀏覽量

    767308
  • 數(shù)據(jù)

    關注

    8

    文章

    7256

    瀏覽量

    91845
  • 模態(tài)
    +關注

    關注

    0

    文章

    9

    瀏覽量

    6358
  • 計算機視覺
    +關注

    關注

    9

    文章

    1708

    瀏覽量

    46775

原文標題:ICCV 2023?|?通用數(shù)據(jù)增強技術,隨機量化適用于任意數(shù)據(jù)模態(tài)

文章出處:【微信號:CVSCHOOL,微信公眾號:OpenCV學堂】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    使用MATLAB進行無監(jiān)督學習

    監(jiān)督學習是一種根據(jù)未標注數(shù)據(jù)進行推斷的機器學習方法。無監(jiān)督學習旨在識別數(shù)據(jù)中隱藏的模式和關系,無需任何
    的頭像 發(fā)表于 05-16 14:48 ?682次閱讀
    使用MATLAB進行無<b class='flag-5'>監(jiān)督學習</b>

    基于transformer和監(jiān)督學習的路面異常檢測方法分享

    鋪設異常檢測可以幫助減少數(shù)據(jù)存儲、傳輸、標記和處理的壓力。本論文描述了一種基于Transformer和監(jiān)督學習的新方法,有助于定位異常區(qū)域。
    的頭像 發(fā)表于 12-06 14:57 ?2378次閱讀
    基于transformer和<b class='flag-5'>自</b><b class='flag-5'>監(jiān)督學習</b>的路面異常檢測方法分享

    你想要的機器學習課程筆記在這:主要討論監(jiān)督學習和無監(jiān)督學習

    with experience E(一個程序從經(jīng)驗E中學習解決任務T進行某一任務量度P,通過P測量在T的表現(xiàn)而提高經(jīng)驗E(另一種定義:機器學習是用數(shù)據(jù)或以往的經(jīng)驗,以此優(yōu)化計算機程序的性能標準。) 不同類型的機器
    發(fā)表于 12-03 17:12 ?729次閱讀

    如何用Python進行無監(jiān)督學習

    監(jiān)督學習是一種用于數(shù)據(jù)中查找模式的機器學習技術。無監(jiān)督算法給出的
    的頭像 發(fā)表于 01-21 17:23 ?4672次閱讀

    機器學習算法中有監(jiān)督和無監(jiān)督學習的區(qū)別

    監(jiān)督學習的好處之一是,它不需要監(jiān)督學習必須經(jīng)歷的費力的數(shù)據(jù)標記過程。但是,要權衡的是,評估其性能的有效性也非常困難。相反,通過將監(jiān)督學習算法的輸出與測試
    的頭像 發(fā)表于 07-07 10:18 ?6105次閱讀

    監(jiān)督學習與Transformer相關論文

    將在明年5月4日舉行,目前,本次大會投稿已經(jīng)結束,最后共有3013篇論文提交。ICLR 采用公開評審機制,任何人都可以提前看到這些論文。 為了分析最新研究動向,我們精選了涵蓋監(jiān)督學習
    的頭像 發(fā)表于 11-02 15:50 ?2914次閱讀
    <b class='flag-5'>自</b><b class='flag-5'>監(jiān)督學習</b>與Transformer相關論文

    最基礎的半監(jiān)督學習

    標記數(shù)據(jù)訓練的監(jiān)督學習技術得到更好的結果。這是半監(jiān)督學習系列文章的第1部分,對這個機器學習的重要子領域進行了簡要的介紹。 區(qū)分半
    的頭像 發(fā)表于 11-02 16:08 ?2947次閱讀

    監(jiān)督學習最基礎的3個概念

    有趣的方法,用來解決機器學習中缺少標簽數(shù)據(jù)的問題。SSL利用未標記的數(shù)據(jù)和標記的數(shù)據(jù)集來學習任務。SSL的目標是得到比單獨使用標記
    的頭像 發(fā)表于 11-02 16:14 ?3285次閱讀
    半<b class='flag-5'>監(jiān)督學習</b>最基礎的3個概念

    為什么半監(jiān)督學習是機器學習的未來?

    揭示了添加無監(jiān)督數(shù)據(jù)可以提高模型泛化和性能。事實上,在非常多的場景中,帶有標簽的數(shù)據(jù)并不容易獲得。半監(jiān)督學習可以在標準的任務中實現(xiàn)SOTA的效果,只需要一小部分的有標記
    的頭像 發(fā)表于 11-27 10:42 ?4146次閱讀

    監(jiān)督學習:比監(jiān)督學習做的更好

    監(jiān)督學習是人工智能領域的第一種學習類型。從它的概念開始,無數(shù)的算法,從簡單的邏輯回歸到大規(guī)模的神經(jīng)網(wǎng)絡,都已經(jīng)被研究用來提高精...
    的頭像 發(fā)表于 12-08 23:32 ?1712次閱讀

    基于人工智能的監(jiān)督學習詳解

    監(jiān)督學習讓 AI 系統(tǒng)能夠從很少的數(shù)據(jù)學習知識,這樣才能識別和理解世界上更微妙、更不常見的表示形式。
    的頭像 發(fā)表于 03-30 17:09 ?6390次閱讀
    基于人工智能的<b class='flag-5'>自</b><b class='flag-5'>監(jiān)督學習</b>詳解

    機器學習中的無監(jiān)督學習應用在哪些領域

    監(jiān)督學習|機器學習| 集成學習|進化計算| 非監(jiān)督學習| 半監(jiān)督學習|
    發(fā)表于 01-20 10:52 ?5258次閱讀
    機器<b class='flag-5'>學習</b>中的無<b class='flag-5'>監(jiān)督學習</b>應用在哪些領域

    監(jiān)督學習的一些思考

    監(jiān)督學習的流行是勢在必然的。在各種主流有監(jiān)督學習任務都做到很成熟之后,數(shù)據(jù)成了最重要的瓶頸。從無標注數(shù)據(jù)
    發(fā)表于 01-26 18:50 ?1次下載
    <b class='flag-5'>自</b><b class='flag-5'>監(jiān)督學習</b>的一些思考

    監(jiān)督學習解鎖醫(yī)學影像洞察力

    數(shù)據(jù),以及機器可以從中學習的復雜數(shù)據(jù)集標簽。 今天,被稱為弱監(jiān)督學習的深度學習 (DL) 的一個分支正在幫助醫(yī)生通過減少對完整、準確和準確
    的頭像 發(fā)表于 09-30 18:04 ?1824次閱讀
    弱<b class='flag-5'>監(jiān)督學習</b>解鎖醫(yī)學影像洞察力

    通用數(shù)據(jù)增強技術!適用于任意數(shù)據(jù)模態(tài)的隨機量化

    一般性地,輸入數(shù)據(jù)可以被表征為由序列維度(sequential)和通道維度(channel)組成的二維向量。其中序列維度通常是模態(tài)相關的,例如圖像上的空間維度、語音的時間維度以及語言的句法維度。而通道維度是模態(tài)無關的。
    的頭像 發(fā)表于 09-12 16:40 ?602次閱讀
    通用<b class='flag-5'>數(shù)據(jù)</b><b class='flag-5'>增強</b><b class='flag-5'>技術</b>!<b class='flag-5'>適用于</b><b class='flag-5'>任意</b><b class='flag-5'>數(shù)據(jù)</b><b class='flag-5'>模態(tài)</b>的隨機量化