一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Dropout如何成為SDR的特殊情況

zhKF_jqr_AI ? 來(lái)源:未知 ? 作者:李倩 ? 2018-08-15 08:32 ? 次閱讀

編者按:多層神經(jīng)網(wǎng)絡(luò)在多種基準(zhǔn)任務(wù)上都有了顯著成果,例如文本、語(yǔ)音和圖像處理。盡管如此,這些深層神經(jīng)網(wǎng)絡(luò)會(huì)導(dǎo)致高維非線性的參數(shù)空間,讓搜索難以進(jìn)行,并且還會(huì)導(dǎo)致過(guò)度擬合和較差的泛化。早期由于數(shù)據(jù)不足、無(wú)法恢復(fù)梯度損失以及不良局部最小值而引起的高捕捉概率,讓使用反向傳播的神經(jīng)網(wǎng)絡(luò)很容易失敗。

2006年,Hinton的深度學(xué)習(xí)提出了一些創(chuàng)新的方法以減少這些過(guò)度擬合和過(guò)度參數(shù)化的問(wèn)題,包括減少連續(xù)梯度損失的ReLU和Dropout等。在這篇文章中,美國(guó)羅格斯大學(xué)的兩位研究者將關(guān)注深層網(wǎng)絡(luò)的過(guò)度參數(shù)化問(wèn)題,盡管現(xiàn)在各項(xiàng)分類(lèi)任務(wù)都有大量可用的數(shù)據(jù)。本文已提交到NIPS 2018,以下是論智對(duì)原文的大致編譯,如有錯(cuò)誤請(qǐng)批評(píng)指正。

Dropout是用來(lái)減輕過(guò)度參數(shù)化、深度學(xué)習(xí)的過(guò)擬合以及避免偶然出現(xiàn)的不良局部最小值。具體說(shuō)來(lái),Dropout在每次更新時(shí)會(huì)添加一個(gè)帶有概率p的Bernoulli隨機(jī)變量、刪除隱藏的單元以及網(wǎng)絡(luò)中的連接,從而創(chuàng)造一個(gè)稀疏的網(wǎng)絡(luò)架構(gòu)。學(xué)習(xí)結(jié)束后,深度學(xué)習(xí)網(wǎng)絡(luò)會(huì)通過(guò)計(jì)算每個(gè)權(quán)重的期望值進(jìn)行重組。大多數(shù)案例證明,深度學(xué)習(xí)的Dropout能將常見(jiàn)基準(zhǔn)的錯(cuò)誤減少50%以上。

在這篇論文中,我們將介紹一種通用的Dropout類(lèi)型,它可以在權(quán)重層面操作,在每次更新中插入梯度相關(guān)的噪音,稱(chēng)為隨機(jī)Delta規(guī)則(SDR)。SDR是在每個(gè)權(quán)重上執(zhí)行一個(gè)隨機(jī)變量,并對(duì)隨機(jī)變量中的每個(gè)參數(shù)提供更新之后的規(guī)則。雖然SDR在任意隨機(jī)變量下都能工作,但是我們將展示,Dropout在擁有二項(xiàng)式隨機(jī)變量中的固定參數(shù)下是非常特別的。最終我們?cè)诤懈咚筍DR的標(biāo)準(zhǔn)基準(zhǔn)下測(cè)試DenseNet,結(jié)果證明二項(xiàng)式Dropout有著非常大的優(yōu)勢(shì)。

隨機(jī)delta規(guī)則(SDR)

眾所周知,神經(jīng)傳輸會(huì)包含噪聲。如果皮質(zhì)分離的神經(jīng)元受到周期性、相同的刺激,將會(huì)產(chǎn)生不同的反應(yīng)。SDR的部分motivation是基于生命系統(tǒng)中信號(hào)在神經(jīng)元之間傳播的隨機(jī)性。顯然,平滑的神經(jīng)速率函數(shù)是基于很多刺激實(shí)驗(yàn)得來(lái)的平均值,這使得我們認(rèn)為兩個(gè)神經(jīng)元之間的突觸可以用一個(gè)具有固定參數(shù)的分布建模。

圖1顯示了我們用一個(gè)高斯隨機(jī)變量和平均μwij以及σwij實(shí)施的SDR算法。每個(gè)權(quán)重都會(huì)從高斯隨機(jī)變量中進(jìn)行采樣。實(shí)際上,和Dropout一樣,很多網(wǎng)絡(luò)都是在訓(xùn)練時(shí)的更新中進(jìn)行采樣。這里和Dropout的不同之處在于,SDR在更新時(shí),會(huì)根據(jù)錯(cuò)誤的梯度調(diào)整權(quán)重和隱藏單元。

圖1

因此,每個(gè)權(quán)重梯度就是基于隱藏單元的隨機(jī)變量,基于此,系統(tǒng)可以:

給定相同的樣本/獎(jiǎng)勵(lì),生成多個(gè)回復(fù)假設(shè)

保持歷史預(yù)測(cè),而不像Dropout一樣只有局部的隱藏單元權(quán)重

有可能會(huì)返回到不良局部最小值而造成貪婪搜索,但同時(shí)越來(lái)越遠(yuǎn)離更好的局部最小值

最后一個(gè)優(yōu)點(diǎn)是,如Hinton所說(shuō),局部噪聲的插入可能會(huì)導(dǎo)致收斂到更好的局部最小值的速度更快、更穩(wěn)定。

實(shí)施SDR有三個(gè)更新規(guī)則,以下是權(quán)重分布中的權(quán)重值的更新規(guī)則:

第一個(gè)更新規(guī)則用于計(jì)算權(quán)重分布的平均數(shù):

第二個(gè)用于權(quán)重分布的標(biāo)準(zhǔn)偏差:

第三種是將標(biāo)準(zhǔn)偏差收斂到0,讓平均權(quán)重值達(dá)到一個(gè)固定點(diǎn),將所有樣本都聚集起來(lái):

接下來(lái),我們將講述Dropout如何成為SDR的特殊情況。最明顯的方法是首先將隨機(jī)搜索看作一種特殊的采樣分布。

將Dropout看作SDR的二項(xiàng)式固定參數(shù)

如之前所說(shuō),Dropout需要將每層的隱藏單元在Bernoulli過(guò)程中刪除。如果我們?cè)谕瑯拥木W(wǎng)絡(luò)中,將Dropout和SDR進(jìn)行對(duì)比,可以發(fā)現(xiàn)二者的不同在于隨機(jī)處理是否影響了權(quán)重或隱藏單元。圖2我們描述了Dropout在隱藏單元采樣時(shí)的收斂??梢钥吹矫黠@的不同是,SDR在適應(yīng)性地更新隨機(jī)變量參數(shù),而Dropout是用固定參數(shù)進(jìn)和Binomial隨機(jī)變量進(jìn)行采樣。另一個(gè)重要區(qū)別在于,SDR在隱藏層中的共享權(quán)重比Dropout的更“局部”。

圖2

那么,SDR所表現(xiàn)出的參數(shù)的增加,是否使得搜索更加有效、更加穩(wěn)定?下一步我們將開(kāi)展實(shí)驗(yàn)。

測(cè)試及結(jié)果

這里我們采用了在TensorFlow上搭建的經(jīng)過(guò)改進(jìn)的DenseNet。模型用DenseNet-40、DenseNet-100和DenseNet-BC 100網(wǎng)絡(luò),它們經(jīng)過(guò)了CIFAR-10和CIFAR-100的訓(xùn)練,初始DenseNet參數(shù)相同。

最終的結(jié)果顯示,將SDR換成Dropout后的DenseNet測(cè)試中,錯(cuò)誤率下降了50%以上。

同時(shí)在錯(cuò)誤率分別為15、10和5的情況下,訓(xùn)練所需次數(shù)也比單獨(dú)DenseNet減少:

訓(xùn)練精確度(DenseNet-100橙色,有SDR的DenseNet-100,藍(lán)色)

結(jié)語(yǔ)

這篇文章展示了一個(gè)基礎(chǔ)的深度學(xué)習(xí)算法(Dropout)是如何實(shí)施隨機(jī)搜索并幫助解決過(guò)度擬合的。未來(lái)我們將展示SDR是如何超越Dropout在深度學(xué)習(xí)分類(lèi)中的表現(xiàn)的。

數(shù)據(jù)科學(xué)家、fast.ai創(chuàng)始人Jeremy Howard點(diǎn)評(píng):“如果該論文結(jié)果真的這么好,那絕對(duì)值得關(guān)注?!?/p>

但是谷歌機(jī)器學(xué)習(xí)專(zhuān)家David Ha有不同意見(jiàn):“結(jié)果看上去很可疑(我覺(jué)得他們搞錯(cuò)了)。CIFAR-10的準(zhǔn)確率能到98.64%,CIFAR-100真的能到94.84%嗎?”

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)元
    +關(guān)注

    關(guān)注

    1

    文章

    368

    瀏覽量

    18717
  • Dropout
    +關(guān)注

    關(guān)注

    0

    文章

    13

    瀏覽量

    10156
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5548

    瀏覽量

    122332

原文標(biāo)題:爭(zhēng)議 | 錯(cuò)誤減少50%!這難道是更快更準(zhǔn)確的深度學(xué)習(xí)?

文章出處:【微信號(hào):jqr_AI,微信公眾號(hào):論智】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    SDR_SDR是什么意思

    本內(nèi)容介紹了SDR,SDR是什么意思?SDR (Software Definition Radio), “軟件定義的無(wú)線電”  一種無(wú)線電廣播通信技術(shù),它基于軟件定義的無(wú)線通信協(xié)議而非通過(guò)硬連線實(shí)現(xiàn)。
    發(fā)表于 12-07 17:40 ?1.1w次閱讀

    IN612 SDR API介紹

    SDR
    橙群微電子
    發(fā)布于 :2023年03月03日 09:07:19

    73.73 對(duì)象分配的特殊情況

    代碼項(xiàng)目開(kāi)發(fā)
    充八萬(wàn)
    發(fā)布于 :2023年07月18日 06:19:49

    介紹SDR的技術(shù)原理 以SDR LTE系統(tǒng)為例進(jìn)一步解析SDR系統(tǒng)的工作流程

    本文檔通俗地介紹SDR的技術(shù)原理:先簡(jiǎn)單介紹SDR的概念,SDR系統(tǒng)的分類(lèi),基于GPP的SDR系統(tǒng),接著詳細(xì)介紹SDR系統(tǒng)原理,最后再以
    發(fā)表于 05-11 16:47

    CCFD SDR平臺(tái)有哪些應(yīng)用

    CCFD SDR平臺(tái)有哪些應(yīng)用?CCFD SDR平臺(tái)主要由哪些部分組成?CCFD SDR平臺(tái)有何功能?
    發(fā)表于 10-08 06:30

    ref sdr sdram verilog代碼

    ref-sdr-sdram-verilog代碼 SDR SDRAM Controller v1.1 readme.txt This readme file for the SDR SDRAM
    發(fā)表于 06-14 08:50 ?33次下載

    SDR SDRAM Controller (White Pa

    SDR SDRAM Controller August 2002, ver. 1.1 1M-WP-SDR-1.1 IntroductionThe single data rate (SDR
    發(fā)表于 06-14 08:51 ?95次下載

    ref sdr sdram vhdl代碼

    ref-sdr-sdram-vhdl代碼 SDR SDRAM Controller v1.1 readme.txt This readme file for the SDR SDRAM
    發(fā)表于 06-14 08:52 ?46次下載

    dropout正則化技術(shù)介紹

    dropout技術(shù)是神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)模型的一種簡(jiǎn)單而有效的正則化方式。 本文將向你介紹dropout正則化技術(shù),并且教你如何在Keras中用Python將其應(yīng)用于你的模型。 讀完本文之后,你將了
    發(fā)表于 10-10 10:38 ?2次下載

    SDR的技術(shù)原理介紹及案例分析

    本文檔通俗地介紹SDR的技術(shù)原理:先簡(jiǎn)單介紹SDR的概念,SDR系統(tǒng)的分類(lèi),基于GPP的SDR系統(tǒng),接著詳細(xì)介紹SDR系統(tǒng)原理,最后再以
    發(fā)表于 11-21 18:43 ?3.8w次閱讀
    <b class='flag-5'>SDR</b>的技術(shù)原理介紹及案例分析

    基于動(dòng)態(tài)dropout的改進(jìn)堆疊自動(dòng)編碼機(jī)方法

    針對(duì)堆疊自動(dòng)編碼機(jī)( SA)容易產(chǎn)生過(guò)擬合而降低垃圾郵件分類(lèi)精度的問(wèn)題,提出了一種基于動(dòng)態(tài)dropout的改進(jìn)堆疊自動(dòng)編碼機(jī)方法。首先分析了垃圾郵件分類(lèi)問(wèn)題的特殊性,將dropout算法引入到堆疊
    發(fā)表于 12-26 14:37 ?0次下載
    基于動(dòng)態(tài)<b class='flag-5'>dropout</b>的改進(jìn)堆疊自動(dòng)編碼機(jī)方法

    執(zhí)行節(jié)點(diǎn)分析時(shí)的特殊情況介紹

    當(dāng)我們?cè)谠O(shè)計(jì)電子電路時(shí),了解流過(guò)元件的電流量或電路中特定節(jié)點(diǎn)在其工作的關(guān)鍵點(diǎn)存在多少電壓始終是很重要的。使用基爾霍夫電路定律可以完成任一測(cè)量。允許我們找到這些值的兩種分析類(lèi)型是網(wǎng)格分析和節(jié)點(diǎn)分析。如果我們?cè)噲D在一個(gè)點(diǎn)(節(jié)點(diǎn))找到電壓,那么我們可以使用基爾霍夫電流定律(KCL)進(jìn)行節(jié)點(diǎn)分析。
    的頭像 發(fā)表于 09-01 09:23 ?4384次閱讀
    執(zhí)行節(jié)點(diǎn)分析時(shí)的<b class='flag-5'>特殊情況</b>介紹

    特殊情況下,封裝壓電陶瓷可倒置使用

    在通常情況下,封裝式壓電陶瓷默認(rèn)為正立使用,即移動(dòng)端在上方,帶載后進(jìn)行垂直方向的升降運(yùn)動(dòng)控制調(diào)節(jié)。但在特殊情況下,封裝壓電陶瓷也可以橫向或倒置使用,但在這兩種情況下,必須提前告知,在生產(chǎn)時(shí)我們會(huì)進(jìn)行
    發(fā)表于 09-10 14:48 ?846次閱讀

    SDR 主動(dòng)學(xué)習(xí)模塊

    SDR 主動(dòng)學(xué)習(xí)模塊
    發(fā)表于 03-20 11:47 ?6次下載
    <b class='flag-5'>SDR</b> 主動(dòng)學(xué)習(xí)模塊

    SINUMERIK 808D診斷手冊(cè)免費(fèi)下載

    本手冊(cè)主要幫助目標(biāo)使用人群來(lái)識(shí)別錯(cuò)誤和故障,并做相應(yīng)的響應(yīng)措施。 使用它操作者可以對(duì)機(jī)床進(jìn)行: ? 在操作機(jī)床時(shí),正確地識(shí)別特殊情況。 ? 在特殊情況下,確定系統(tǒng)的反應(yīng)。 ? 發(fā)生特殊情況后,采用各種可能措施以便繼續(xù)操作
    發(fā)表于 06-06 09:51 ?3次下載