一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

預(yù)測(cè)深度神經(jīng)網(wǎng)絡(luò)泛化性能差異

Tensorflowers ? 來源:YXQ ? 作者:h1654155287.6125 ? 2019-07-28 10:45 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

深度神經(jīng)網(wǎng)絡(luò) (DNN) 是近年來機(jī)器學(xué)習(xí)研究進(jìn)展的基礎(chǔ),也是在圖像識(shí)別、圖像分割、機(jī)器翻譯等諸多領(lǐng)域能夠取得突破性進(jìn)展的重要原因。

盡管 DNN 無處不在,研究人員仍在嘗試全面了解深度神經(jīng)網(wǎng)絡(luò)的基本原理。例如,傳統(tǒng)理論(如 VC 維和 Rademacher 復(fù)雜度)認(rèn)為:在處理未知數(shù)據(jù)時(shí),過參數(shù)化函數(shù) (over-parameterized functions) 的泛化能力較差;但在近期研究中卻發(fā)現(xiàn),大規(guī)模過參數(shù)化的函數(shù)(參數(shù)比數(shù)據(jù)點(diǎn)多出幾個(gè)數(shù)量級(jí))卻擁有出色的泛化能力,更深層次地地理解泛化對(duì)于理論的落地和DNN理論的實(shí)現(xiàn)從而改進(jìn)模型是很有必要的。

在理解泛化之前,我們需了解 Generalization Gap(泛化性能差異)這一重要概念。泛化性能差異即模型針對(duì)相同分布的訓(xùn)練數(shù)據(jù)和未知數(shù)據(jù)所表現(xiàn)出的性能差異。在致力獲得更好的 DNN 泛化邊界(即泛化性能差異的上限)的過程中,研究人員取得了重大進(jìn)展。但是,這類邊界通常仍會(huì)大大高估真實(shí)的泛化性能差異水平,并且無法解釋部分模型為何具有出色的泛化能力。

另一方面,研究人員基于支持向量機(jī) (support-vector machines) 等淺層模型對(duì)邊緣 (notion) 概念(即數(shù)據(jù)點(diǎn)與決策邊界之間的距離)進(jìn)行了大量研究,最終發(fā)現(xiàn)此概念與模型針對(duì)未知數(shù)據(jù)所表現(xiàn)出的泛化能力密切相關(guān)?;诖隧?xiàng)發(fā)現(xiàn),研究人員已將使用邊緣研究泛化性能差異的方法拓展至 DNN 領(lǐng)域,從而使泛化性能差異的理論上限得到了高度優(yōu)化,但此方式并未能顯著提高泛化模型的預(yù)測(cè)能力。

注:理論上限 鏈接

支持向量機(jī)決策邊界示例。w?x-b=0 定義的超平面是此線性分類器的“決策邊界”,即在該線性分類器下,超平面上的每個(gè)點(diǎn) x 在任一類中的可能性相等。

ICLR 2019 論文《使用邊緣分布預(yù)測(cè)深度網(wǎng)絡(luò)的泛化性能差異》(Predicting the Generalization Gap in Deep Networks with Margin Distributions) 中,我們提議在各層網(wǎng)絡(luò)上使用標(biāo)準(zhǔn)化的邊緣分布 (Normalized Margin Distribution) 來預(yù)測(cè)泛化性能差異。

我們通過實(shí)踐研究了邊緣分布與泛化之間的關(guān)系,最終發(fā)現(xiàn)在對(duì)距離進(jìn)行適當(dāng)標(biāo)準(zhǔn)化 (Normalization) 后,邊緣分布的一些基本數(shù)據(jù)可以準(zhǔn)確預(yù)測(cè)泛化性能差異。此外,我們還通過 GitHub 代碼庫(kù)將所有模型作為數(shù)據(jù)集公開發(fā)布,以便您進(jìn)行泛化研究。

每張圖均對(duì)應(yīng)一個(gè)基于 CIFAR-10 訓(xùn)練的卷積神經(jīng)網(wǎng)絡(luò)(分類準(zhǔn)確率各不相同)。三個(gè)模型各有差異,從左至右,泛化能力逐漸增強(qiáng)。其中,x 軸表示 4 個(gè)層的神經(jīng)網(wǎng)絡(luò)標(biāo)準(zhǔn)化邊緣分布,y 軸表示此分布的概率密度。標(biāo)準(zhǔn)化的邊緣分布與測(cè)試準(zhǔn)確率密切相關(guān),這表明我們可以將此類分布用作預(yù)測(cè)網(wǎng)絡(luò) Generalization Gap(泛化性能差異)的指標(biāo)。如需了解這些神經(jīng)網(wǎng)絡(luò)的更多詳情,請(qǐng)參閱我們的論文。

邊緣分布作為泛化性能差異的預(yù)測(cè)指標(biāo)

如果邊緣分布統(tǒng)計(jì)數(shù)據(jù)可以真實(shí)預(yù)測(cè)泛化性能差異,那么簡(jiǎn)單的預(yù)測(cè)方案應(yīng)能建立起二者的關(guān)系。

因此,我們選擇使用線性回歸作為預(yù)測(cè)指標(biāo)。我們發(fā)現(xiàn),在對(duì)邊緣分布統(tǒng)計(jì)數(shù)據(jù)進(jìn)行對(duì)數(shù)轉(zhuǎn)換后,轉(zhuǎn)換后的數(shù)據(jù)與 泛化性能差異之間幾乎完全呈線性關(guān)系(參見下圖)。事實(shí)上,相較于其他現(xiàn)有的泛化測(cè)量方法,我們提出的方案可提供更準(zhǔn)確的預(yù)測(cè)。這表明,邊緣分布可能包含與深度模型泛化性能差異相關(guān)的重要信息。

基于 CIFAR-100 和 ResNet-32 得出的 Generalization Gap 預(yù)測(cè)值(x 軸)與實(shí)際值(y 軸)關(guān)系圖。數(shù)據(jù)點(diǎn)的分布趨近于貼近對(duì)角線,這表明該對(duì)數(shù)線性模型的預(yù)測(cè)值非常符合實(shí)際的 Generalization Gap 水平。

深度模型泛化數(shù)據(jù)集

除論文之外,我們還介紹了深度模型泛化 (DEMOGEN) 數(shù)據(jù)集。該數(shù)據(jù)集包含 756 個(gè)經(jīng)過訓(xùn)練的深度模型,以及這些深度模型在 CIFAR-10 和 CIFAR-100 數(shù)據(jù)集上的訓(xùn)練與及測(cè)試表現(xiàn)。這些模型均為 CNN(所用架構(gòu)類似于“網(wǎng)絡(luò)中的網(wǎng)絡(luò)”(Network-in-Network))和 ResNet-32 的變體,它們采用當(dāng)下流行的各類正則化技術(shù)和超參數(shù)設(shè)置,因而也產(chǎn)生了廣泛的泛化行為。

例如,基于 CIFAR-10 訓(xùn)練的 CNN 模型的測(cè)試準(zhǔn)確率在 60% 至 90.5% 之間,泛化性能差異率則介于 1% 至 35% 之間。如需了解數(shù)據(jù)集詳情,請(qǐng)查看我們的論文或 GitHub 代碼庫(kù)。發(fā)布數(shù)據(jù)集時(shí),我們還為其添加了許多實(shí)用程序,以便您能夠輕松加載模型,并重現(xiàn)論文中所展示的結(jié)果。

我們希望本次研究和 DEMOGEN 數(shù)據(jù)集能為社區(qū)提供便利工具,讓社區(qū)成員無需重新訓(xùn)練大量模型,即可研究深度學(xué)習(xí)領(lǐng)域的泛化問題而提供便利工具。同時(shí),我們也希望本次研究成果能夠提供助力,以幫助我們?nèi)蘸髮?duì)隱藏層中的泛化性能差異預(yù)測(cè)指標(biāo)和邊緣分布進(jìn)行更加深入的研究。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:預(yù)測(cè)深度神經(jīng)網(wǎng)絡(luò)泛化性能差異

文章出處:【微信號(hào):tensorflowers,微信公眾號(hào):Tensorflowers】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    無刷電機(jī)小波神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)子位置檢測(cè)方法的研究

    摘要:論文通過對(duì)無刷電機(jī)數(shù)學(xué)模型的推導(dǎo),得出轉(zhuǎn)角:與三相相電壓之間存在映射關(guān)系,因此構(gòu)建了一個(gè)以三相相電壓為輸人,轉(zhuǎn)角為輸出的小波神經(jīng)網(wǎng)絡(luò)來實(shí)現(xiàn)轉(zhuǎn)角預(yù)測(cè),并采用改進(jìn)遺傳算法來訓(xùn)練網(wǎng)絡(luò)結(jié)構(gòu)與參數(shù),借助
    發(fā)表于 06-25 13:06

    使用BP神經(jīng)網(wǎng)絡(luò)進(jìn)行時(shí)間序列預(yù)測(cè)

    使用BP(Backpropagation)神經(jīng)網(wǎng)絡(luò)進(jìn)行時(shí)間序列預(yù)測(cè)是一種常見且有效的方法。以下是一個(gè)基于BP神經(jīng)網(wǎng)絡(luò)進(jìn)行時(shí)間序列預(yù)測(cè)的詳細(xì)步驟和考慮因素: 一、數(shù)據(jù)準(zhǔn)備 收集數(shù)據(jù) :
    的頭像 發(fā)表于 02-12 16:44 ?755次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的比較

    BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)在多個(gè)方面存在顯著差異,以下是對(duì)兩者的比較: 一、結(jié)構(gòu)特點(diǎn) BP神經(jīng)網(wǎng)絡(luò) : BP神經(jīng)網(wǎng)絡(luò)是一種多層的前饋
    的頭像 發(fā)表于 02-12 15:53 ?646次閱讀

    BP神經(jīng)網(wǎng)絡(luò)的優(yōu)缺點(diǎn)分析

    自學(xué)習(xí)能力 : BP神經(jīng)網(wǎng)絡(luò)能夠通過訓(xùn)練數(shù)據(jù)自動(dòng)調(diào)整網(wǎng)絡(luò)參數(shù),實(shí)現(xiàn)對(duì)輸入數(shù)據(jù)的分類、回歸等任務(wù),無需人工進(jìn)行復(fù)雜的特征工程。 化能力強(qiáng) : BP神經(jīng)網(wǎng)絡(luò)通過訓(xùn)練數(shù)據(jù)學(xué)習(xí)到的特征表示
    的頭像 發(fā)表于 02-12 15:36 ?905次閱讀

    什么是BP神經(jīng)網(wǎng)絡(luò)的反向傳播算法

    神經(jīng)網(wǎng)絡(luò)(即反向傳播神經(jīng)網(wǎng)絡(luò))的核心,它建立在梯度下降法的基礎(chǔ)上,是一種適合于多層神經(jīng)元網(wǎng)絡(luò)的學(xué)習(xí)算法。該算法通過計(jì)算每層網(wǎng)絡(luò)的誤差,并將這些誤差反向傳播到前一層,從而調(diào)整權(quán)重,使得
    的頭像 發(fā)表于 02-12 15:18 ?756次閱讀

    BP神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)的關(guān)系

    BP神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)之間存在著密切的關(guān)系,以下是對(duì)它們之間關(guān)系的介紹: 一、BP神經(jīng)網(wǎng)絡(luò)的基本概念 BP神經(jīng)網(wǎng)絡(luò),即反向傳播神經(jīng)網(wǎng)絡(luò)(Ba
    的頭像 發(fā)表于 02-12 15:15 ?846次閱讀

    深度學(xué)習(xí)入門:簡(jiǎn)單神經(jīng)網(wǎng)絡(luò)的構(gòu)建與實(shí)現(xiàn)

    深度學(xué)習(xí)中,神經(jīng)網(wǎng)絡(luò)是核心模型。今天我們用 Python 和 NumPy 構(gòu)建一個(gè)簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò)。 神經(jīng)網(wǎng)絡(luò)由多個(gè)神經(jīng)元組成,
    的頭像 發(fā)表于 01-23 13:52 ?518次閱讀

    人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法

    所擬合的數(shù)學(xué)模型的形式受到大腦中神經(jīng)元的連接和行為的啟發(fā),最初是為了研究大腦功能而設(shè)計(jì)的。然而,數(shù)據(jù)科學(xué)中常用的神經(jīng)網(wǎng)絡(luò)作為大腦模型已經(jīng)過時(shí),現(xiàn)在它們只是能夠在某些應(yīng)用中提供最先進(jìn)性能的機(jī)器學(xué)習(xí)模型。近年來,由于
    的頭像 發(fā)表于 01-09 10:24 ?1176次閱讀
    人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的原理和多種<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>架構(gòu)方法

    卷積神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)工具與框架

    卷積神經(jīng)網(wǎng)絡(luò)因其在圖像和視頻處理任務(wù)中的卓越性能而廣受歡迎。隨著深度學(xué)習(xí)技術(shù)的快速發(fā)展,多種實(shí)現(xiàn)工具和框架應(yīng)運(yùn)而生,為研究人員和開發(fā)者提供了強(qiáng)大的支持。 TensorFlow 概述
    的頭像 發(fā)表于 11-15 15:20 ?657次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的比較

    深度學(xué)習(xí)領(lǐng)域,神經(jīng)網(wǎng)絡(luò)模型被廣泛應(yīng)用于各種任務(wù),如圖像識(shí)別、自然語(yǔ)言處理和游戲智能等。其中,卷積神經(jīng)網(wǎng)絡(luò)(CNNs)和傳統(tǒng)神經(jīng)網(wǎng)絡(luò)是兩種常見的模型。 1. 結(jié)構(gòu)
    的頭像 發(fā)表于 11-15 14:53 ?1848次閱讀

    深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)模型

    深度學(xué)習(xí)近年來在多個(gè)領(lǐng)域取得了顯著的進(jìn)展,尤其是在圖像識(shí)別、語(yǔ)音識(shí)別和自然語(yǔ)言處理等方面。卷積神經(jīng)網(wǎng)絡(luò)作為深度學(xué)習(xí)的一個(gè)分支,因其在圖像處理任務(wù)中的卓越性能而受到廣泛關(guān)注。 卷積
    的頭像 發(fā)表于 11-15 14:52 ?835次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)在時(shí)間序列預(yù)測(cè)中的應(yīng)用

    時(shí)間序列預(yù)測(cè)是數(shù)據(jù)分析中的一個(gè)重要領(lǐng)域,它涉及到基于歷史數(shù)據(jù)預(yù)測(cè)未來值。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,長(zhǎng)短期記憶(LSTM)神經(jīng)網(wǎng)絡(luò)因其在處理序列數(shù)據(jù)方面的優(yōu)勢(shì)而受到廣泛關(guān)注。 LSTM
    的頭像 發(fā)表于 11-13 09:54 ?2018次閱讀

    Moku人工神經(jīng)網(wǎng)絡(luò)101

    不熟悉神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)知識(shí),或者想了解神經(jīng)網(wǎng)絡(luò)如何優(yōu)化加速實(shí)驗(yàn)研究,請(qǐng)繼續(xù)閱讀,探索基于深度學(xué)習(xí)的現(xiàn)代智能化實(shí)驗(yàn)的廣闊應(yīng)用前景。什么是神經(jīng)網(wǎng)絡(luò)?“人工
    的頭像 發(fā)表于 11-01 08:06 ?653次閱讀
    Moku人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>101

    FPGA在深度神經(jīng)網(wǎng)絡(luò)中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Network, DNN)作為其核心算法之一,在圖像識(shí)別、語(yǔ)音識(shí)別、自然語(yǔ)言處理等領(lǐng)域取得了顯著成果。然而,傳統(tǒng)的深度神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-24 10:42 ?1191次閱讀

    深度神經(jīng)網(wǎng)絡(luò)在雷達(dá)系統(tǒng)中的應(yīng)用

    深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Networks,DNN)在雷達(dá)系統(tǒng)中的應(yīng)用近年來取得了顯著進(jìn)展,為雷達(dá)信號(hào)處理、目標(biāo)檢測(cè)、跟蹤以及識(shí)別等領(lǐng)域帶來了革命性的變化。以下將詳細(xì)探討深度神經(jīng)網(wǎng)
    的頭像 發(fā)表于 07-15 11:09 ?1543次閱讀