一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于有效樣本數(shù)的類平衡損失

深度學習自然語言處理 ? 來源:煉丹筆記 ? 作者:煉丹筆記 ? 2022-08-25 09:41 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

本文綜述了康奈爾大學、康奈爾科技、谷歌Brain和Alphabet公司的基于有效樣本數(shù)的類平衡損失(CB損失)。在本文中,設(shè)計了一種重新加權(quán)的方案,利用每個類的有效樣本數(shù)來重新平衡損失,稱為類別平衡損失。使用每個類的有效樣本數(shù)量來重新為每個類的Loss分配權(quán)重,效果優(yōu)于RetinaNet中的Focal Loss。

1. 類別平衡問題

469786ae-239e-11ed-ba43-dac502259ad0.png

兩個類,分別來自長尾數(shù)據(jù)集的頭部和尾部(iNaturalist 2017 dataset)假設(shè)有像上面那樣的不平衡的類。head:對于索引小的類,這些類有較多的樣本。Tail:對于大索引的類,這些類的樣本數(shù)量較少。黑色實線:直接在這些樣本上訓(xùn)練的模型偏向于優(yōu)勢類。紅色虛線通過反向類頻率來重新加權(quán)損失可能會在具有高類不平衡的真實數(shù)據(jù)上產(chǎn)生較差的性能。藍虛線:設(shè)計了一個類平衡項,通過反向有效樣本數(shù)來重新加權(quán)損失。 2. 有效樣本數(shù)量

2.1. 定義

46b7f6f0-239e-11ed-ba43-dac502259ad0.png

數(shù)據(jù)間信息重疊,左:特征空間S,中:1個樣本數(shù)據(jù)的單位體積,右:數(shù)據(jù)間信息重疊

直覺上,數(shù)據(jù)越多越好。但是,由于數(shù)據(jù)之間存在信息重疊,隨著樣本數(shù)量的增加,模型從數(shù)據(jù)中提取的邊際效益會減少

:給定一個類,將該類的特征空間中所有可能數(shù)據(jù)的集合表示為S。假設(shè)S的體積為N且N≥1。:S子集中的每個樣本的單位體積為1,可能與其他樣本重疊。Right:從S中隨機抽取每個子集,覆蓋整個S集合。采樣的數(shù)據(jù)越多,S的覆蓋率就越好。期望的采樣數(shù)據(jù)總量隨著樣本數(shù)量的增加而增加,以N為界。

因此,將有效樣本數(shù)定義為樣本的期望體積。

這個想法是通過使用一個類的更多數(shù)據(jù)點來捕捉邊際效益的遞減。由于現(xiàn)實世界數(shù)據(jù)之間的內(nèi)在相似性,隨著樣本數(shù)量的增加,新添加的樣本極有可能是現(xiàn)有樣本的近重復(fù)。另外,cnn是用大量的數(shù)據(jù)增廣來訓(xùn)練的,所有的增廣實例也被認為與原始實例相同。對于一個類,N可以看作是唯一原型的數(shù)量

2.2. 數(shù)學公式

46c9501c-239e-11ed-ba43-dac502259ad0.png

新的采樣數(shù)據(jù)與以前的采樣數(shù)據(jù)重疊或不重疊

En表示樣本的有效數(shù)量(期望體積)。為了簡化問題,不考慮部分重疊的情況。也就是說,一個新采樣的數(shù)據(jù)點只能以兩種方式與之前的采樣數(shù)據(jù)交互:完全在之前的采樣數(shù)據(jù)集中,概率為p,或完全在原來的數(shù)據(jù)集之外,的概率為1-p

有效數(shù)字:En= (1?β^n)/(1?β),其中,β= (N? 1)/N,這個命題可以用數(shù)學歸納法證明。當E1 = 1時,不存在重疊,E1 =(1?β^1)/(1?β) = 1成立。假設(shè)已經(jīng)有n?1個樣本,并且即將對第n個樣本進行采樣,現(xiàn)在先前采樣數(shù)據(jù)的期望體積為En ?1,而新采樣的數(shù)據(jù)點與先前采樣點重疊的概率為p = E(n?1)/N。因此,第n個實例采樣后的期望體積為:

46d6dfde-239e-11ed-ba43-dac502259ad0.png

此時:

46e3bf4c-239e-11ed-ba43-dac502259ad0.png

我們有:

46f32b08-239e-11ed-ba43-dac502259ad0.png

上述命題表明有效樣本數(shù)是n的指數(shù)函數(shù)。超參數(shù)β∈[0,1)控制En隨著n的增長有多快。

3. 類別平衡 Loss (CB Loss)

類別平衡(CB)loss可以寫成:

4712f9b0-239e-11ed-ba43-dac502259ad0.png

其中,ny是類別y的ground-truth的數(shù)量。β= 0對應(yīng)沒有重新加權(quán),β→ 1對應(yīng)于用反向頻率進行加權(quán)。

提出的有效樣本數(shù)的新概念使我們能夠使用一個超參數(shù)β來平滑地調(diào)整無重權(quán)和反向類頻率重權(quán)之間的類平衡項。

所提出的類平衡項是模型不可知的損失不可知的,因為它獨立于損失函數(shù)L和預(yù)測類概率p的選擇。

3.1. 類別平衡的 Softmax 交叉熵損失

給定一個標號為y的樣本,該樣本的softmax交叉熵(CE)損失記為:

4722b210-239e-11ed-ba43-dac502259ad0.png

假設(shè)類y有ny個訓(xùn)練樣本,類平衡(CB)softmax交叉熵損失為:

473159a0-239e-11ed-ba43-dac502259ad0.png

3.2. 類別平衡的 Sigmoid 交叉熵損失

當對多類問題使用sigmoid函數(shù)時,網(wǎng)絡(luò)的每個輸出都執(zhí)行一個one-vs-all分類,以預(yù)測目標類在其他類中的概率。在這種情況下,Sigmoid不假定類之間的互斥性。由于每個類都被認為是獨立的,并且有自己的預(yù)測器,所以sigmoid將單標簽分類和多標簽預(yù)測統(tǒng)一起來。這是一個很好的屬性,因為現(xiàn)實世界的數(shù)據(jù)通常有多個語義標簽。sigmoid交叉熵(CE)損失可以寫成:

474c2fa0-239e-11ed-ba43-dac502259ad0.png

類平衡(CB) sigmoid交叉熵損失為:

475c813e-239e-11ed-ba43-dac502259ad0.png

3.3. 類別平衡 Focal Loss

Focal loss (FL)是在RetinaNet中提出的,可以減少分類很好的樣本的損失,聚焦于困難的樣本。

4768441a-239e-11ed-ba43-dac502259ad0.png

類別平衡的 (CB) Focal Loss為:

47765384-239e-11ed-ba43-dac502259ad0.png

4. 實驗結(jié)果

4.1. 數(shù)據(jù)集

47914ac2-239e-11ed-ba43-dac502259ad0.png

用于評估類平衡損失有效性的數(shù)據(jù)集

試驗了CIFAR-10和CIFAR-100的5個不平衡系數(shù)分別為10、20、50、100和200的長尾版本。iNaturalist 和ILSVRC是天然的類別不平衡數(shù)據(jù)集。

47a66cd6-239e-11ed-ba43-dac502259ad0.png

在人工創(chuàng)建的具有不同不平衡因子的長尾CIFAR-100數(shù)據(jù)集中,每類訓(xùn)練樣本的個數(shù)

上面顯示了每個類具有不同不平衡因素的圖像數(shù)量。

4.2. CIFAR 數(shù)據(jù)集

47bbc158-239e-11ed-ba43-dac502259ad0.png

ResNet-32在長尾CIFAR-10和CIFAR-100測試集上用不同的損失函數(shù)訓(xùn)練的分類錯誤率

loss類型的超參數(shù)搜索空間為{softmax, sigmoid, focal}, [focal loss]的超參數(shù)搜索空間為β∈{0.9,0.99,0.999,0.9999},γ∈{0.5,1.0,2.0}。在CIFAR-10上,最佳的β一致為0.9999。但在CIFAR-100上,不同不平衡因子的數(shù)據(jù)集往往有不同且較小的最優(yōu)β。

47d18952-239e-11ed-ba43-dac502259ad0.png

有和沒有類平衡項時的分類錯誤率

CIFAR-10上,根據(jù)β= 0.9999重新加權(quán)后,有效樣本數(shù)與樣本數(shù)接近。這意味著CIFAR-10的最佳重權(quán)策略與逆類頻率重權(quán)類似。在CIFAR-100上,使用較大的β的性能較差,這表明用逆類頻率重新加權(quán)不是一個明智的選擇,需要一個更小的β,具有更平滑的跨類權(quán)重。例如,一個特定鳥類物種的獨特原型數(shù)量應(yīng)該小于一個一般鳥類類的獨特原型數(shù)量。由于CIFAR-100中的類比CIFAR-10更細粒度,因此CIFAR-100的N比CIFAR-10小。

4.3. 大規(guī)模數(shù)據(jù)集

48043cda-239e-11ed-ba43-dac502259ad0.png

在所有數(shù)據(jù)集驗證集上,使用不同損失函數(shù)訓(xùn)練的大規(guī)模數(shù)據(jù)集上的Top-1和Top-5分類錯誤率

使用了類平衡的Focal Loss,因為它具有更大的靈活性,并且發(fā)現(xiàn)β = 0.999和γ = 0.5在所有數(shù)據(jù)集上都獲得了合理的良好的性能。值得注意的是,使用了類別平衡的Focal Loss來代替Softmax交叉熵,ResNet-50能夠達到和ResNet-152相應(yīng)的性能。

4817359c-239e-11ed-ba43-dac502259ad0.png

ILSVRC 2012(左)和iNaturalist 2018(右)的ResNet-50訓(xùn)練曲線

以上數(shù)字顯示類平衡的Focal Loss損失經(jīng)過60個epochs的訓(xùn)練后,開始顯示其優(yōu)勢。

審核編輯:彭靜
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 函數(shù)
    +關(guān)注

    關(guān)注

    3

    文章

    4381

    瀏覽量

    64895
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3521

    瀏覽量

    50430
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1224

    瀏覽量

    25449

原文標題:基于有效樣本的類別不平衡損失CB-Loss

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    ADS54J69EVM輸出的樣本數(shù)據(jù)變化幅度很大的原因?怎么解決?

    您好,我在測試ADS54J69EVM的數(shù)據(jù)輸時,選擇將VCM、AINP、AINM與板上到的GND連接在一起,本以為這樣輸出的樣本數(shù)據(jù)應(yīng)該時接近0V的數(shù)據(jù),出現(xiàn)的波動也會很小,但實時是該通道對應(yīng)
    發(fā)表于 11-27 06:39

    請教各位朋友:時域信號轉(zhuǎn)FFT后為何要除以樣本數(shù)后輸出頻域圖???

    各位大俠,我是剛剛開始自學,基礎(chǔ)差,好多東西不懂,請大家?guī)兔χ笇?dǎo)?。?!我看教程里:正弦時域信號,用fft變換后,為何還要除掉采集的樣本數(shù)后再在頻域圖里面顯示?。浚ǔ绦蛉缦聢D) 教程里說“流程圖
    發(fā)表于 06-26 09:13

    數(shù)據(jù)采集中的每通道采樣數(shù)和每通道讀取的樣本數(shù)的區(qū)別是什么

    即每通道采樣數(shù)和每通道讀取的樣本數(shù)是什么意思,這兩者之間有什么關(guān)聯(lián),又和采樣率有什關(guān)聯(lián)
    發(fā)表于 07-29 16:39

    I2S如何填充到樣本數(shù)據(jù)

    =CyuU3pII2sWithth1616BIT;狀態(tài)= CYU3PI2SSETCONFIG(和;I2SCFG,NULL);如果PAD模式是正常的,那么在32位樣本數(shù)據(jù)中,LSB應(yīng)該用零填充。在上面的示例代碼中,它將I2S配置為
    發(fā)表于 11-15 16:02

    TensorFlow損失函數(shù)(定義和使用)詳解

    定義為變量,將數(shù)據(jù)集定義為占位符??梢杂幸粋€常學習率或變化的學習率和正則化常數(shù)。在下面的代碼中,設(shè) m 是樣本數(shù)量,n 是特征數(shù)量,P 是類別數(shù)量。這里應(yīng)該在代碼之前定義這些全局參數(shù):在標準線性回歸
    發(fā)表于 07-28 14:38

    用于生成每個輸出樣本樣本數(shù)量而言LIS3mdl磁力計的操作模式有何不同?

    就用于生成每個輸出樣本樣本數(shù)量而言,LIS3mdl 磁力計的操作模式有何不同?例如,我發(fā)現(xiàn)在 ISM303DAC 中,用于生成的樣本數(shù)輸出樣本在低功耗模式下比在低功耗模式下使用的數(shù)量
    發(fā)表于 01-06 07:31

    基于SLPS的模擬電路故障樣本自動獲取技術(shù)

    故障樣本數(shù)據(jù)的獲取是模擬電路故障診斷中最基本的步驟。為了實現(xiàn)短時間內(nèi)多次進行故障注入、獲取大量樣本數(shù)據(jù),提出了基于SLPS的樣本數(shù)據(jù)自動獲取技術(shù)。利用SLPS將PSpice與Matlab結(jié)
    發(fā)表于 01-31 17:31 ?46次下載
    基于SLPS的模擬電路故障<b class='flag-5'>樣本</b>自動獲取技術(shù)

    入侵檢測樣本數(shù)據(jù)優(yōu)化方法

    ,分析了算法的時間復(fù)雜度。實驗結(jié)果表明,該方法可有效減少數(shù)據(jù)信息損失,具有迭代次數(shù)少、收斂速度快等優(yōu)點,可有效提高入侵檢測樣本數(shù)據(jù)的優(yōu)化效率。
    發(fā)表于 02-26 10:29 ?0次下載

    機器學習中樣本比例不平衡應(yīng)該怎樣去應(yīng)付

    這種現(xiàn)象往往是由于本身數(shù)據(jù)來源決定的,如信用卡的征信問題中往往就是正樣本居多。樣本比例不平衡往往會帶來不少問題,但是實際獲取的數(shù)據(jù)又往往是不平衡的,因此本文主要討論面對
    發(fā)表于 03-30 09:57 ?1238次閱讀
    機器學習中<b class='flag-5'>樣本</b>比例不<b class='flag-5'>平衡</b>應(yīng)該怎樣去應(yīng)付

    機器學習的訓(xùn)練樣本數(shù)據(jù)選擇方法綜述

    和數(shù)據(jù)集的縮減,這兩方面的研究工作是并行的。訓(xùn)練樣本數(shù)據(jù)選擇是機器學習的一個硏究熱點,通過對樣本數(shù)據(jù)的有效選擇,提取更具有信息量的樣本,剔除冗余樣本
    發(fā)表于 04-26 14:45 ?8次下載
    機器學習的訓(xùn)練<b class='flag-5'>樣本數(shù)</b>據(jù)選擇方法綜述

    極限學習機處理不平衡數(shù)據(jù)分類的算法

    基于代價敏感學習的極限學習機(ELM)算法在處理不平衡數(shù)據(jù)分類問題時,未考慮不同類別樣本的分布特點以及同一別中各樣本的重要性對分類結(jié)果的影響。為此,提出基于
    發(fā)表于 06-03 10:53 ?2次下載

    基于有效樣本的類別不平衡損失

    樣本數(shù)平衡損失(CB損失)。在本文中,設(shè)計了一種重新加權(quán)的方案,利用每個
    的頭像 發(fā)表于 08-16 11:14 ?2120次閱讀
    基于<b class='flag-5'>有效</b><b class='flag-5'>樣本</b>的類別不<b class='flag-5'>平衡</b><b class='flag-5'>損失</b>

    英國醫(yī)院通過RFID技術(shù)跟蹤患者樣本數(shù)據(jù)……

    英國醫(yī)院通過RFID技術(shù)跟蹤患者樣本數(shù)據(jù) 為了更好地管理患者病例中的組織樣本,醫(yī)院決定引入RFID技術(shù)來構(gòu)建實時跟蹤系統(tǒng)。利茲教學醫(yī)院作為英國國民健康保險制度(NHS)下的重要醫(yī)療機構(gòu),每年處理
    的頭像 發(fā)表于 08-08 16:15 ?548次閱讀
    英國醫(yī)院通過RFID技術(shù)跟蹤患者<b class='flag-5'>樣本數(shù)</b>據(jù)……

    假設(shè)檢驗的功效和樣本數(shù)

    在假設(shè)檢驗中,我們會使用樣本中的數(shù)據(jù)來描繪有關(guān)總體的結(jié)論。首先,我們會進行假設(shè),這被稱為原假設(shè)(以 H0 表示)。當您進行原假設(shè)時,您也需要定義備擇假設(shè) (Ha),其與原假設(shè)正相反。樣本數(shù)據(jù)將用
    的頭像 發(fā)表于 01-15 10:50 ?358次閱讀

    嵌入式AI技術(shù)漫談:怎么為訓(xùn)練AI模型采集樣本數(shù)據(jù)

    Q 需要為嵌入式AI模型提供多少樣本數(shù)據(jù)? 我在向客戶介紹如何使用AI方法設(shè)計一款客戶產(chǎn)品時,客戶理解,AI嵌入式項目的開發(fā)都是圍繞數(shù)據(jù)展開的,如此,我經(jīng)常會被問到這樣的問題:客戶的工程師需要采集
    的頭像 發(fā)表于 06-11 16:30 ?600次閱讀