一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一種新型解決方案:將表征學(xué)習(xí)和分類器學(xué)習(xí)分開

智能感知與物聯(lián)網(wǎng)技術(shù)研究所 ? 來源:通信信號處理研究所 ? 2020-06-13 14:55 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在圖像分類任務(wù)中類別不均衡問題一直是個難點,在實際應(yīng)用中大部分的分類樣本很可能呈現(xiàn)長尾分布。新加坡國立大學(xué)和 Facebook AI 的研究者提出了一種新型解決方案:將表征學(xué)習(xí)和分類器學(xué)習(xí)分開,從而尋找合適的表征來最小化長尾樣本分類的負(fù)面影響。該論文已被 ICLR 2020 接收。

圖像分類一直是深度學(xué)習(xí)領(lǐng)域中非?;厩夜I(yè)應(yīng)用廣泛的任務(wù),然而如何處理待分類樣本中存在的類別不均衡問題是長期困擾學(xué)界與工業(yè)界的一個難題。相對來說,學(xué)術(shù)研究提供的普通圖像分類數(shù)據(jù)集維持了較為均衡的不同類別樣本分布;然而在實際應(yīng)用中,大部分的分類樣本很可能呈現(xiàn)長尾分布(long-tail distribution),這很有可能導(dǎo)致分類模型效果偏差:對于尾部的類別分類準(zhǔn)確率不高。 針對長尾分布的圖像識別任務(wù),目前的研究和實踐提出了大致幾種解決思路,比如分類損失權(quán)重重分配(loss re-weighting)、數(shù)據(jù)集重采樣、尾部少量樣本過采樣、頭部過多樣本欠采樣,或者遷移學(xué)習(xí)。 在 ICLR 2020 會議上,新加坡國立大學(xué)與 Facebook AI 合著了一篇論文《Decoupling Representation and classifier for long-tailed recognition》,提出了一個新穎的解決角度:在學(xué)習(xí)分類任務(wù)的過程中,將通常默認(rèn)為聯(lián)合起來學(xué)習(xí)的類別特征表征與分類器解耦(decoupling),尋求合適的表征來最小化長尾樣本分類的負(fù)面影響。

論文鏈接:https://openreview.net/pdf?id=r1gRTCVFvB

GitHub 鏈接:https://github.com/facebookresearch/classifier-balancing

該研究系統(tǒng)性地探究了不同的樣本均衡策略對長尾型數(shù)據(jù)分類的影響,并進(jìn)行了詳實的實驗,結(jié)果表明:a) 當(dāng)學(xué)習(xí)到高質(zhì)量的類別表征時,數(shù)據(jù)不均衡很可能不會成為問題;b) 在學(xué)得上述表征后,即便應(yīng)用最簡單的樣本均衡采樣方式,也一樣有可能在僅調(diào)整分類器的情況下學(xué)習(xí)到非常魯棒的長尾樣本分類模型。 該研究將表征學(xué)習(xí)和分類器學(xué)習(xí)分離開來,分別進(jìn)行了延伸探究。 表征學(xué)習(xí) 對于表征學(xué)習(xí)來說,理想情況下好的類別表征能夠準(zhǔn)確識別出各種待分類類別。目前針對長尾類型數(shù)據(jù)分類任務(wù),不同的采樣策略、損失權(quán)重重分配,以及邊界正則化(margin regularization)都可用于改善類別不均。 假設(shè) p_j 為樣本來自類別 j 中的概率,則 p_j 可用如下公式表示:

其中 n 為訓(xùn)練樣本總數(shù),C 為訓(xùn)練類別總數(shù),而 q 為 [0,1] 其中一個值。 采樣策略包含以下幾種常用采樣方式:

樣本均衡采樣(Instance-balanced sampling):該方法最為常見,即每一個訓(xùn)練樣本都有均等的機會概率被選中,即上述公式中 q=1 的情況。

類別均衡采樣(Class-balanced sampling):每個類別都有同等的概率被選中,即公平地選取每個類別,然后再從類別中進(jìn)行樣本選取,即上述公式中 q=0 的情況。

平方根采樣(Square-root sampling):本質(zhì)上是之前兩種采樣方式的變種,通常是將概率公式中的 q 定值為 0.5。

漸進(jìn)式均衡采樣(Progressively-balanced sampling):根據(jù)訓(xùn)練中的迭代次數(shù) t(epoch)同時引入樣本均衡(IB)與類別均衡(CB)采樣并進(jìn)行適當(dāng)權(quán)重調(diào)整的一種新型采樣模式,公式為

其中 T 為數(shù)據(jù)集訓(xùn)練迭代總數(shù)。 分類器學(xué)習(xí) 該研究也針對單獨拆分出來的分類器訓(xùn)練進(jìn)行了調(diào)研和分類概括:

重訓(xùn)練分類器(Classifier Re-training, cRT):保持表征固定不變,隨機重新初始化分類器并進(jìn)行訓(xùn)練。

最近類別平均分類器(Nereast Class Mean classifier, NCM):首先計算學(xué)習(xí)到的每個類別特征均值,然后執(zhí)行最近鄰搜索來確定類別。

τ-歸一化分類器(τ-normalized classifier):作者提出使用該方法對分類器中的類別邊界進(jìn)行重新歸一化,以取得均衡。

實驗結(jié)果 通過以上觀察和學(xué)習(xí)拆分,該研究在幾個公開的長尾分類數(shù)據(jù)集上重新修改了頭部類別和尾部類別的分類決策邊界,并且搭配不同的采樣策略進(jìn)行交叉訓(xùn)練實驗。訓(xùn)練出的不同分類器之間的對比結(jié)果如下圖所示:

同時,在 Places-LT、Imagenet-LT 和 iNaturalist2018 三個公開標(biāo)準(zhǔn)數(shù)據(jù)集上,該研究提出的策略也獲得了同比更高的分類準(zhǔn)確率,實現(xiàn)了新的 SOTA 結(jié)果:

通過各類對比實驗,該研究得到了如下觀察: 1. 解耦表征學(xué)習(xí)與分類為兩個過程均取得了非常好的效果,并且打破了人們對長尾分類固有的「樣本均衡采樣學(xué)習(xí)效果最好,擁有最具泛化性的特征表示」這一經(jīng)驗之談。 2. 重新調(diào)整分類邊界對于長尾分布的物體識別來說是非常有效的。 3. 將該研究提出的解耦學(xué)習(xí)規(guī)則應(yīng)用到傳統(tǒng)網(wǎng)絡(luò)(如 ResNeXt)中,仍能取得很好的效果,這說明該策略確實對長尾分類具備一定指導(dǎo)意義。 該研究針對業(yè)界和學(xué)界頻繁遇到的長尾樣本分類難題,提出解構(gòu)傳統(tǒng)的「分類器表征聯(lián)合學(xué)習(xí)」范式,從另一個角度提供了新思路:調(diào)整它們在表征空間的分類邊界或許是更加高效的方法。 該研究思路比較新穎,實驗結(jié)果也具有一定的代表性。對于研究長尾分類的學(xué)者或者業(yè)界工程師而言,這在傳統(tǒng)采樣方式下「面多了加水,水多了加面」的經(jīng)驗之外,提供了額外思路。目前該研究的相關(guān)代碼已在 GitHub 上開源,感興趣的讀者可以下載進(jìn)行更多的嘗試。 代碼實現(xiàn) 研究者在 GitHub 項目中提供了對應(yīng)的訓(xùn)練代碼和必要的訓(xùn)練步驟。代碼整體是相對基本的分類訓(xùn)練代碼,比較容易實現(xiàn)。具體到復(fù)現(xiàn)模型訓(xùn)練,作者也給出了幾點注意事項。 1. 表征學(xué)習(xí)階段

學(xué)習(xí)過程中保持網(wǎng)絡(luò)結(jié)構(gòu)(比如 global pooling 之后不需要增加額外的全連接層)、超參數(shù)選擇、學(xué)習(xí)率和 batch size 的關(guān)系和正常分類問題一致(比如 ImageNet),以確保表征學(xué)習(xí)的質(zhì)量。

類別均衡采樣:采用多 GPU 實現(xiàn)的時候,需要考慮使得每塊設(shè)備上都有較為均衡的類別樣本,避免出現(xiàn)樣本種類在卡上過于單一,從而使得 BN 的參數(shù)估計不準(zhǔn)。

漸進(jìn)式均衡采樣:為提升采樣速度,該采樣方式可以分兩步進(jìn)行。第一步先從類別中選擇所需類別,第二步從對應(yīng)類別中隨機選擇樣本。

2. 分類器學(xué)習(xí)階段

重新學(xué)習(xí)分類器(cRT):重新隨機初始化分類器或者繼承特征表示學(xué)習(xí)階段的分類器,重點在于保證學(xué)習(xí)率重置到起始大小并選擇 cosine 學(xué)習(xí)率。

τ-歸一化(tau-normalization):τ 的選取在驗證集上進(jìn)行,如果沒有驗證集可以從訓(xùn)練集模仿平衡驗證集,可參考原論文附錄 B.5。

可學(xué)習(xí)參數(shù)放縮(LWS):學(xué)習(xí)率的選擇與 cRT 一致,學(xué)習(xí)過程中要保證分類器參數(shù)固定不變,只學(xué)習(xí)放縮因子。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 圖像分類
    +關(guān)注

    關(guān)注

    0

    文章

    96

    瀏覽量

    12167
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5561

    瀏覽量

    122794

原文標(biāo)題:ICLR 2020 | 如何解決圖像分類中的類別不均衡問題?不妨試試分開學(xué)習(xí)表征和分類器

文章出處:【微信號:tyutcsplab,微信公眾號:智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    寬調(diào)速范圍低轉(zhuǎn)矩脈動的一種新型內(nèi)置式永磁同步電機的設(shè)計與分析

    摘要:寬調(diào)速范圍與低轉(zhuǎn)矩脈動直是設(shè)計電動汽車用內(nèi)置式永礎(chǔ)同步電機時所追求的重要目標(biāo)。設(shè)計了一種轉(zhuǎn)子結(jié)構(gòu)為胃的新型內(nèi)置式永礎(chǔ)同步電機,并進(jìn)行了繞組結(jié)構(gòu)優(yōu)化與性能分析。利用有限元分析法,
    發(fā)表于 06-06 14:13

    一種新型寬帶鞭狀套筒天線

    電子發(fā)燒友網(wǎng)站提供《一種新型寬帶鞭狀套筒天線.pdf》資料免費下載
    發(fā)表于 05-28 14:05 ?0次下載

    使用MATLAB進(jìn)行無監(jiān)督學(xué)習(xí)

    無監(jiān)督學(xué)習(xí)一種根據(jù)未標(biāo)注數(shù)據(jù)進(jìn)行推斷的機器學(xué)習(xí)方法。無監(jiān)督學(xué)習(xí)旨在識別數(shù)據(jù)中隱藏的模式和關(guān)系,無需任何監(jiān)督或關(guān)于結(jié)果的先驗知識。
    的頭像 發(fā)表于 05-16 14:48 ?683次閱讀
    使用MATLAB進(jìn)行無監(jiān)督<b class='flag-5'>學(xué)習(xí)</b>

    基于RV1126開發(fā)板實現(xiàn)自學(xué)習(xí)圖像分類方案

    在RV1126開發(fā)板上實現(xiàn)自學(xué)習(xí):在識別前對物體圖片進(jìn)行模型學(xué)習(xí),訓(xùn)練完成后通過算法分類得出圖像的模型ID。 方案設(shè)計邏輯流程圖,方案
    的頭像 發(fā)表于 04-21 13:37 ?11次閱讀
    基于RV1126開發(fā)板實現(xiàn)自<b class='flag-5'>學(xué)習(xí)</b>圖像<b class='flag-5'>分類</b><b class='flag-5'>方案</b>

    一種新型直流電機控制

    以前控制直流電機多由單片機完成。該方式缺點是接口繁瑣、速度慢,且不易在高溫、高壓等惡劣環(huán)境下工作[1]。采用一種新型直流電機控制——DSP 控制解決了單片機控制的缺點,其具備很多優(yōu)
    發(fā)表于 03-25 15:25

    常見xgboost錯誤及解決方案

    XGBoost(eXtreme Gradient Boosting)是一種流行的機器學(xué)習(xí)算法,用于解決分類和回歸問題。盡管它非常強大和靈活,但在使用過程中可能會遇到些常見的錯誤。以下
    的頭像 發(fā)表于 01-19 11:22 ?2517次閱讀

    xgboost在圖像分類中的應(yīng)用

    XGBoost(eXtreme Gradient Boosting)是一種高效的機器學(xué)習(xí)算法,它基于梯度提升框架,通過構(gòu)建多個弱學(xué)習(xí)(通常是決策樹)來提高模型的性能。XGBoost因
    的頭像 發(fā)表于 01-19 11:16 ?1004次閱讀

    一種新型高效率的服務(wù)電源系統(tǒng)

    一種新型高效率的服務(wù)電源系統(tǒng)
    發(fā)表于 12-19 16:45 ?1次下載

    一種使用LDO簡單電源電路解決方案

    本期我們介紹一種使用LDO簡單電源電路解決方案,該方案可以處理12V/24V、多節(jié)鋰離子電池和4節(jié)干電池等相對較高的輸入電壓。
    的頭像 發(fā)表于 12-04 16:05 ?821次閱讀
    <b class='flag-5'>一種</b>使用LDO簡單電源電路<b class='flag-5'>解決方案</b>

    NPU與機器學(xué)習(xí)算法的關(guān)系

    在人工智能領(lǐng)域,機器學(xué)習(xí)算法是實現(xiàn)智能系統(tǒng)的核心。隨著數(shù)據(jù)量的激增和算法復(fù)雜度的提升,對計算資源的需求也在不斷增長。NPU作為一種專門為深度學(xué)習(xí)等機器學(xué)習(xí)任務(wù)設(shè)計的處理
    的頭像 發(fā)表于 11-15 09:19 ?1216次閱讀

    NPU在深度學(xué)習(xí)中的應(yīng)用

    設(shè)計的硬件加速,它在深度學(xué)習(xí)中的應(yīng)用日益廣泛。 1. NPU的基本概念 NPU是一種專門針對深度學(xué)習(xí)算法優(yōu)化的處理,它與傳統(tǒng)的CPU和G
    的頭像 發(fā)表于 11-14 15:17 ?1912次閱讀

    一種基于深度學(xué)習(xí)的二維拉曼光譜算法

    近日,天津大學(xué)精密儀器與光電子工程學(xué)院的光子芯片實驗室提出了一種基于深度學(xué)習(xí)的二維拉曼光譜算法,成果以“Rapid and accurate bacteria identification
    的頭像 發(fā)表于 11-07 09:08 ?737次閱讀
    <b class='flag-5'>一種</b>基于深度<b class='flag-5'>學(xué)習(xí)</b>的二維拉曼光譜算法

    靈活多元的EMC學(xué)習(xí)方案

    第九期EMC實戰(zhàn)特訓(xùn)營來了!01EMC實戰(zhàn)特訓(xùn)營SES課程簡介學(xué)員自主安排學(xué)習(xí)時間,提高效率結(jié)合直播、錄播與答疑,滿足需求學(xué)員可提問,講師全程支持累計70年經(jīng)驗,助力學(xué)員掌握要點02課程分類EMC
    的頭像 發(fā)表于 10-25 08:05 ?558次閱讀
    靈活多元的EMC<b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>方案</b>

    一種新型電流模式控制集成電路

    電子發(fā)燒友網(wǎng)站提供《一種新型電流模式控制集成電路.pdf》資料免費下載
    發(fā)表于 10-24 10:20 ?0次下載
    <b class='flag-5'>一種</b><b class='flag-5'>新型</b>電流模式控制集成電路

    AI大模型與深度學(xué)習(xí)的關(guān)系

    AI大模型與深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進(jìn),相輔相成。以下是對兩者關(guān)系的介紹: 、深度學(xué)習(xí)是AI大模型的基礎(chǔ) 技術(shù)支撐 :深度學(xué)習(xí)
    的頭像 發(fā)表于 10-23 15:25 ?2889次閱讀