一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

我們對(duì)目前機(jī)器學(xué)習(xí)進(jìn)展的衡量有多可靠?

jmiy_worldofai ? 來(lái)源:未知 ? 作者:胡薇 ? 2018-06-08 14:38 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

我們對(duì)機(jī)器學(xué)習(xí)的發(fā)展認(rèn)識(shí),很大程度上取決于少數(shù)幾個(gè)標(biāo)準(zhǔn)基準(zhǔn),比如CIFAR-10,ImageNet或MuJoCo。

近年來(lái)人工智能發(fā)展,大的,比如一項(xiàng)又一項(xiàng)“超越人類水平”的進(jìn)步,以及小的、甚至幾乎每天都在發(fā)生的(這要感謝Arxiv),比如在各種論文中不斷被刷新的“state-of-the-art”,無(wú)不讓人感嘆領(lǐng)域的蓬勃。

但是,實(shí)際情況或許并沒(méi)有這么美好。

一項(xiàng)伯克利和MIT合作的新研究,對(duì)過(guò)去近十年中提出的一些經(jīng)典分類器(比如VGG和ResNet)進(jìn)行再測(cè)試后發(fā)現(xiàn),由于測(cè)試集過(guò)擬合,很多分類器的精度實(shí)際并沒(méi)有宣稱的那么高;在新的數(shù)據(jù)集上測(cè)試結(jié)果表明,這些分類器的精度普遍都有下降,幅度4%~10%不等。

研究者表示,這一結(jié)果可以被視為證據(jù),證明模型的精度這個(gè)數(shù)字是不可靠的,并且容易受到數(shù)據(jù)分布中微小的自然變化的影響。

這項(xiàng)新的研究也提出了一個(gè)值得反思的問(wèn)題——我們目前用來(lái)衡量機(jī)器學(xué)習(xí)進(jìn)展的手段和方法,究竟有多可靠?

重復(fù)使用相同的測(cè)試集,無(wú)法推廣到新數(shù)據(jù)

作者在論文中寫(xiě)道,在過(guò)去五年里,機(jī)器學(xué)習(xí)已經(jīng)成為一個(gè)實(shí)驗(yàn)領(lǐng)域。在深度學(xué)習(xí)的推動(dòng)下,大多數(shù)發(fā)表的論文都采用了同一種套路,那就是看一種新的方法在幾個(gè)關(guān)鍵基準(zhǔn)上性能有多少提升。換句話說(shuō),就是簡(jiǎn)單粗暴地對(duì)比數(shù)值,很少有人去解釋為什么。

而在對(duì)比數(shù)值的時(shí)候,大多數(shù)研究的評(píng)估都取決于少數(shù)幾個(gè)標(biāo)準(zhǔn)的基準(zhǔn),例如CIFAR-10、ImageNet或MuJoCo。不僅如此,由于Ground truth的數(shù)據(jù)分布一般很難得到,所以研究人員只能在單獨(dú)的測(cè)試集上評(píng)估模型的性能。

“現(xiàn)在,在整個(gè)算法和模型設(shè)計(jì)過(guò)程中,多次重復(fù)使用相同的測(cè)試集的做法已經(jīng)被普遍接受。盡管將新模型與以前的結(jié)果進(jìn)行比較是很自然的想法,但顯然目前的研究方法破壞了分類器獨(dú)立于測(cè)試集這一關(guān)鍵假設(shè)?!?/p>

這種不匹配帶來(lái)了明顯的危害,因?yàn)檠芯咳藛T可以很容易地設(shè)計(jì)出只能在特定測(cè)試集上運(yùn)行良好,但實(shí)際上無(wú)法推廣到新數(shù)據(jù)的模型。

CIFAR-10可重復(fù)性實(shí)驗(yàn):VGG、ResNet等經(jīng)典模型精度普遍下降

為了審視這種現(xiàn)象造成的后果,研究人員對(duì)CIFAR-10以及相關(guān)分類器做了再調(diào)查。研究的主要目標(biāo)是,衡量新進(jìn)的分類器在泛化到來(lái)自相同分布的、未知新數(shù)據(jù)時(shí)能做得多好。

選擇標(biāo)準(zhǔn)CIFAR-10數(shù)據(jù)集,是因?yàn)樗该鞯膭?chuàng)建過(guò)程使其特別適合于這個(gè)任務(wù)。此外,CIFAR-10已經(jīng)成為近10年來(lái)研究的熱點(diǎn),在調(diào)查適應(yīng)性(adaptivity)是否導(dǎo)致過(guò)擬合這個(gè)問(wèn)題上,它是一個(gè)很好的測(cè)試用例。

在實(shí)驗(yàn)中,研究人員首先用新的、確定是模型沒(méi)有見(jiàn)過(guò)的大約2000幅圖像,制作了一個(gè)新的測(cè)試集,并將新測(cè)試集的子類分布與原始 CIFAR-10 數(shù)據(jù)集仔細(xì)地做匹配,盡可能保持一致。

然后,在新測(cè)試集上評(píng)估了30個(gè)圖像分類器的性能,包括經(jīng)典的VGG、ResNet,最近新提出的ResNeXt、PyramidNet、DenseNet,以及在ICLR 2018發(fā)布的Shake-Drop,這個(gè)Shake-Drop正則化方法結(jié)合以前的分類器,取得了目前的state-of-art。

結(jié)果如下表所示。原始CIFAR-10測(cè)試集和新測(cè)試集的模型精度,Gap是兩者精度的差異。ΔRank表示排名的變化,比如“-2”意味著在新測(cè)試集中的排名下降了兩個(gè)位置。

由結(jié)果可知,新測(cè)試集上模型的精度相比原始測(cè)試集有明顯下降。例如,VGG和ResNet這兩個(gè)模型在原始數(shù)據(jù)集上準(zhǔn)確率為93%,而在新測(cè)試集上降為了85%左右。此外,作者還表示,他們發(fā)現(xiàn)現(xiàn)有測(cè)試集上模型的性能相比新測(cè)試集更加具有預(yù)測(cè)性。

對(duì)于出現(xiàn)這種結(jié)果的原因,作者設(shè)定了多個(gè)假設(shè)并一一進(jìn)行了討論,除了統(tǒng)計(jì)誤差、調(diào)參等之外,主要還是過(guò)擬合。

作者表示,他們的結(jié)果展現(xiàn)了當(dāng)前機(jī)器學(xué)習(xí)進(jìn)展令人意外的一面。盡管CIFAR-10測(cè)試集已經(jīng)被不斷適應(yīng)(adapting)了很多年,但這種趨勢(shì)并沒(méi)有停滯。表現(xiàn)最好的模型仍然是最近提出的Shake-Shake網(wǎng)絡(luò)(Cutout正則化)。而且,在新的測(cè)試集置上,Shake-Shake比標(biāo)準(zhǔn)ResNet的優(yōu)勢(shì)從4%增加到8%。這表明,瞄準(zhǔn)一個(gè)測(cè)試集猛攻的研究方法對(duì)過(guò)擬合而言是十分有效的。

同時(shí),這個(gè)結(jié)果也對(duì)當(dāng)前分類器的魯棒性提出了質(zhì)疑。盡管新數(shù)據(jù)集只做了微小的改變(分布轉(zhuǎn)移),但現(xiàn)有的被廣泛使用的模型,分類準(zhǔn)確性普遍顯著下降。例如,前面提到的VGG和ResNet的精度損失對(duì)應(yīng)于CIFAR-10的多年進(jìn)展。

作者特別指出,他們的實(shí)驗(yàn)引起的分布轉(zhuǎn)移(distributional shift)既不是對(duì)抗性的(adversarial),也不是不同數(shù)據(jù)源導(dǎo)致的結(jié)果。因此,即使在良性環(huán)境中,分布轉(zhuǎn)移也會(huì)帶來(lái)嚴(yán)峻的挑戰(zhàn),研究人員需要思考,目前的模型真正能泛化到什么程度。

機(jī)器學(xué)習(xí)研究也需要注意可重復(fù)性

Python Machine Learning 一書(shū)作者Sebastian Raschka評(píng)論這項(xiàng)研究認(rèn)為,它再次提醒機(jī)器學(xué)習(xí)研究人員注意測(cè)試集重復(fù)使用(以及違背獨(dú)立性)的問(wèn)題。

谷歌大腦研究科學(xué)家、Twitter賬戶hardmaru表示,對(duì)機(jī)器學(xué)習(xí)研究進(jìn)行可靠評(píng)估的方法十分重要。他期待見(jiàn)到有關(guān)文本和翻譯的類似研究,并查看PTB,wikitext,enwik8,WMT'14 EN-FR,EN-DE等結(jié)構(gòu)如何從相同分布轉(zhuǎn)移到新的測(cè)試集。

不過(guò),hardmaru表示,如果在PTB上得到類似的結(jié)果,那么對(duì)于深度學(xué)習(xí)研究界來(lái)說(shuō)實(shí)際上是好事,因?yàn)樵赑TB這個(gè)小數(shù)據(jù)集上進(jìn)行超級(jí)優(yōu)化的典型過(guò)程,確實(shí)會(huì)讓人發(fā)現(xiàn)泛化性能更好的新方法。

作者表示,未來(lái)實(shí)驗(yàn)應(yīng)該探索在其他數(shù)據(jù)集(例如ImageNet)和其他任務(wù)(如語(yǔ)言建模)上是否同樣對(duì)過(guò)擬合具有復(fù)原性。此外,我們應(yīng)該了解哪些自然發(fā)生的分布變化對(duì)圖像分類器具有挑戰(zhàn)性。

為了真正理解泛化問(wèn)題,更多的研究應(yīng)該收集有洞察力的新數(shù)據(jù)并評(píng)估現(xiàn)有算法在這些數(shù)據(jù)上的性能表現(xiàn)。類似于招募新參與者進(jìn)行醫(yī)學(xué)或心理學(xué)的可重復(fù)性實(shí)驗(yàn),機(jī)器學(xué)習(xí)研究也需要對(duì)模型性能的可重復(fù)多做研究。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • MIT
    MIT
    +關(guān)注

    關(guān)注

    3

    文章

    254

    瀏覽量

    24402
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8501

    瀏覽量

    134538

原文標(biāo)題:十年機(jī)器學(xué)習(xí)結(jié)果不可靠?伯克利&MIT研究質(zhì)疑了30個(gè)經(jīng)典模型

文章出處:【微信號(hào):worldofai,微信公眾號(hào):worldofai】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    **【技術(shù)干貨】Nordic nRF54系列芯片:傳感器數(shù)據(jù)采集與AI機(jī)器學(xué)習(xí)的完美結(jié)合**

    【技術(shù)干貨】nRF54系列芯片:傳感器數(shù)據(jù)采集與AI機(jī)器學(xué)習(xí)的完美結(jié)合 近期收到不少伙伴咨詢nRF54系列芯片的應(yīng)用與技術(shù)細(xì)節(jié),今天我們整理幾個(gè)核心問(wèn)題與解答,帶你快速掌握如何在nRF54上部署AI
    發(fā)表于 04-01 00:00

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】2.具身智能機(jī)器人的基礎(chǔ)模塊

    目前高速發(fā)展的大模型能給具身智能帶來(lái)一些突破性的進(jìn)展。 對(duì)于感知系統(tǒng),要做的主要任務(wù)是物體檢測(cè),語(yǔ)義分割,立體視覺(jué),鳥(niǎo)瞰視角感知。 很多算法都可以實(shí)現(xiàn)物體檢測(cè),比如文章提到的HOG + SVM算法
    發(fā)表于 01-04 19:22

    《具身智能機(jī)器人系統(tǒng)》第10-13章閱讀心得之具身智能機(jī)器人計(jì)算挑戰(zhàn)

    閱讀《具身智能機(jī)器人系統(tǒng)》第10-13章,我對(duì)具身智能機(jī)器人的工程實(shí)踐了全新認(rèn)識(shí)。第10章從實(shí)時(shí)性角度剖析了機(jī)器人計(jì)算加速問(wèn)題。機(jī)器人定位
    發(fā)表于 01-04 01:15

    傳統(tǒng)機(jī)器學(xué)習(xí)方法和應(yīng)用指導(dǎo)

    在上一篇文章中,我們介紹了機(jī)器學(xué)習(xí)的關(guān)鍵概念術(shù)語(yǔ)。在本文中,我們會(huì)介紹傳統(tǒng)機(jī)器學(xué)習(xí)的基礎(chǔ)知識(shí)和多
    的頭像 發(fā)表于 12-30 09:16 ?1173次閱讀
    傳統(tǒng)<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>方法和應(yīng)用指導(dǎo)

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】2.具身智能機(jī)器人大模型

    指令和當(dāng)前機(jī)器人靜態(tài)圖像,生成一段預(yù)測(cè)的未來(lái)狀態(tài)視頻。從這些預(yù)測(cè)視頻中,可以提取機(jī)器人的位姿信息,并解碼出控制所需的速度、加速度等關(guān)鍵參數(shù),再傳遞給機(jī)器人進(jìn)行實(shí)際控制。目前,這種方法已
    發(fā)表于 12-29 23:04

    如何選擇云原生機(jī)器學(xué)習(xí)平臺(tái)

    當(dāng)今,云原生機(jī)器學(xué)習(xí)平臺(tái)因其彈性擴(kuò)展、高效部署、低成本運(yùn)營(yíng)等優(yōu)勢(shì),逐漸成為企業(yè)構(gòu)建和部署機(jī)器學(xué)習(xí)應(yīng)用的首選。然而,市場(chǎng)上的云原生機(jī)器
    的頭像 發(fā)表于 12-25 11:54 ?446次閱讀

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】+數(shù)據(jù)在具身人工智能中的價(jià)值

    嵌入式人工智能(EAI)將人工智能集成到機(jī)器人等物理實(shí)體中,使它們能夠感知、學(xué)習(xí)環(huán)境并與之動(dòng)態(tài)交互。這種能力使此類機(jī)器人能夠在人類社會(huì)中有效地提供商品及服務(wù)。 數(shù)據(jù)是一種貨幣化工具 數(shù)據(jù)是互聯(lián)網(wǎng)
    發(fā)表于 12-24 00:33

    什么是機(jī)器學(xué)習(xí)?通過(guò)機(jī)器學(xué)習(xí)方法能解決哪些問(wèn)題?

    來(lái)源:Master編程樹(shù)“機(jī)器學(xué)習(xí)”最初的研究動(dòng)機(jī)是讓計(jì)算機(jī)系統(tǒng)具有人的學(xué)習(xí)能力以便實(shí)現(xiàn)人工智能。因?yàn)闆](méi)有學(xué)習(xí)能力的系統(tǒng)很難被認(rèn)為是具有智能的。目前
    的頭像 發(fā)表于 11-16 01:07 ?957次閱讀
    什么是<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>?通過(guò)<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>方法能解決哪些問(wèn)題?

    NPU與機(jī)器學(xué)習(xí)算法的關(guān)系

    在人工智能領(lǐng)域,機(jī)器學(xué)習(xí)算法是實(shí)現(xiàn)智能系統(tǒng)的核心。隨著數(shù)據(jù)量的激增和算法復(fù)雜度的提升,對(duì)計(jì)算資源的需求也在不斷增長(zhǎng)。NPU作為一種專門(mén)為深度學(xué)習(xí)機(jī)器
    的頭像 發(fā)表于 11-15 09:19 ?1191次閱讀

    人工智能、機(jī)器學(xué)習(xí)和深度學(xué)習(xí)存在什么區(qū)別

    人工智能指的是在某種程度上顯示出類似人類智能的設(shè)備。AI很多技術(shù),但其中一個(gè)很大的子集是機(jī)器學(xué)習(xí)——讓算法從數(shù)據(jù)中學(xué)習(xí)。
    發(fā)表于 10-24 17:22 ?2962次閱讀
    人工智能、<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>和深度<b class='flag-5'>學(xué)習(xí)</b>存在什么區(qū)別

    AI大模型的最新研究進(jìn)展

    。例如,在醫(yī)療領(lǐng)域,生成式AI可以幫助醫(yī)生生成診斷報(bào)告、治療方案等;在教育領(lǐng)域,AI大模型可以生成個(gè)性化的學(xué)習(xí)資源和建議。 模態(tài)融合與交互 : AI大模型正在向模態(tài)方向發(fā)展,能夠同時(shí)處理文本、圖像、音頻等多種類型的數(shù)據(jù)。這種
    的頭像 發(fā)表于 10-23 15:19 ?1492次閱讀

    AMD贊助支FIRST機(jī)器人競(jìng)賽團(tuán)隊(duì)

    AMD 在 2024 賽季贊助了支 FIRST 機(jī)器人競(jìng)賽團(tuán)隊(duì)。FIRST 機(jī)器人競(jìng)賽旨在教導(dǎo)高中生如何構(gòu)建能夠執(zhí)行特定任務(wù)的機(jī)器人,同時(shí)也讓他們有機(jī)會(huì)
    的頭像 發(fā)表于 09-18 09:45 ?852次閱讀

    衡量功率放大電路的參數(shù)哪些

    衡量功率放大電路的參數(shù)主要包括以下幾個(gè)方面: 1. 輸出功率(Output Power) 定義:指在特定負(fù)載條件下,功率放大器能夠輸出的最大功率。 單位:一般以瓦特(W)為單位進(jìn)行表示。 重要性
    的頭像 發(fā)表于 09-03 09:35 ?972次閱讀

    【「時(shí)間序列與機(jī)器學(xué)習(xí)」閱讀體驗(yàn)】時(shí)間序列的信息提取

    方法為該時(shí)間序列填充缺失值。 時(shí)間序列的縮放是指對(duì)原有的時(shí)間序列數(shù)據(jù)進(jìn)行數(shù)據(jù)范圍的調(diào)整,以便更好地完成后續(xù)的數(shù)據(jù)分析或機(jī)器學(xué)習(xí)任務(wù)。該節(jié)講到時(shí)間序列的最小最大縮放、時(shí)間序列的最大絕對(duì)值縮放、時(shí)間序列
    發(fā)表于 08-17 21:12

    【「時(shí)間序列與機(jī)器學(xué)習(xí)」閱讀體驗(yàn)】全書(shū)概覽與時(shí)間序列概述

    時(shí)間序列中的自相關(guān)性。 時(shí)間序列有基于線性場(chǎng)景,也有一些非線性性質(zhì)周期性和不對(duì)稱性、波動(dòng)的聚集性、波動(dòng)中出現(xiàn)的跳躍現(xiàn)象,以及時(shí)間的不可逆性。機(jī)器學(xué)習(xí)已經(jīng)是目前非線性時(shí)序分析的主攻方向之一。 時(shí)間序列
    發(fā)表于 08-07 23:03