一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

帶Dropout的訓(xùn)練過程

Dbwd_Imgtec ? 來源:YXQ ? 2019-08-08 10:35 ? 次閱讀

dropout是指在深度學(xué)習(xí)網(wǎng)絡(luò)的訓(xùn)練過程中,對于神經(jīng)網(wǎng)絡(luò)單元,按照一定的概率將其暫時從網(wǎng)絡(luò)中丟棄。注意是暫時,對于隨機梯度下降來說,由于是隨機丟棄,故而每一個mini-batch都在訓(xùn)練不同的網(wǎng)絡(luò)。

過擬合是深度神經(jīng)網(wǎng)(DNN)中的一個常見問題:模型只學(xué)會在訓(xùn)練集上分類,這些年提出的許多過擬合問題的解決方案,其中dropout具有簡單性而且效果也非常良好。

算法概述

我們知道如果要訓(xùn)練一個大型的網(wǎng)絡(luò),而訓(xùn)練數(shù)據(jù)很少的話,那么很容易引起過擬合,一般情況我們會想到用正則化、或者減小網(wǎng)絡(luò)規(guī)模。然而Hinton在2012年文獻(xiàn):《Improving neural networks by preventing co-adaptation of feature detectors》提出了,在每次訓(xùn)練的時候,隨機讓一半的特征檢測器停過工作,這樣可以提高網(wǎng)絡(luò)的泛化能力,Hinton又把它稱之為dropout。

第一種理解方式是,在每次訓(xùn)練的時候使用dropout,每個神經(jīng)元有百分之50的概率被移除,這樣可以使得一個神經(jīng)元的訓(xùn)練不依賴于另外一個神經(jīng)元,同樣也就使得特征之間的協(xié)同作用被減弱。Hinton認(rèn)為,過擬合可以通過阻止某些特征的協(xié)同作用來緩解。

第二種理解方式是,我們可以把dropout當(dāng)做一種多模型效果平均的方式。對于減少測試集中的錯誤,我們可以將多個不同神經(jīng)網(wǎng)絡(luò)的預(yù)測結(jié)果取平均,而因為dropout的隨機性,我們每次dropout后,網(wǎng)絡(luò)模型都可以看成是一個不同結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò),而此時要訓(xùn)練的參數(shù)數(shù)目卻是不變的,這就解脫了訓(xùn)練多個獨立的不同神經(jīng)網(wǎng)絡(luò)的時耗問題。在測試輸出的時候,將輸出權(quán)重除以二,從而達(dá)到類似平均的效果。

需要注意的是如果采用dropout,訓(xùn)練時間大大延長,但是對測試階段沒影響。

帶dropout的訓(xùn)練過程

而為了達(dá)到ensemble的特性,有了dropout后,神經(jīng)網(wǎng)絡(luò)的訓(xùn)練和預(yù)測就會發(fā)生一些變化。在這里使用的是dropout以pp的概率舍棄神經(jīng)元

訓(xùn)練層面

對應(yīng)的公式變化如下如下:

沒有dropout的神經(jīng)網(wǎng)絡(luò):

有dropout的神經(jīng)網(wǎng)絡(luò):

無可避免的,訓(xùn)練網(wǎng)絡(luò)的每個單元要添加一道概率流程。

測試層面

預(yù)測的時候,每一個單元的參數(shù)要預(yù)乘以p。

除此之外還有一種方式是,在預(yù)測階段不變,而訓(xùn)練階段改變。

Inverted Dropout的比例因子是

關(guān)于這個比例我查了不少資料,前面的是論文的結(jié)論;后面是keras源碼中dropout的實現(xiàn)。有博客寫的公式不一致,我寫了一個我覺得是對的版本。

Dropout與其它正則化

Dropout通常使用L2歸一化以及其他參數(shù)約束技術(shù)。正則化有助于保持較小的模型參數(shù)值。

使用Inverted Dropout后,上述等式變?yōu)椋?/p>

可以看出使用Inverted Dropout,學(xué)習(xí)率是由因子q=1?p進(jìn)行縮放 。由于q在[0,1]之間,η和q之間的比例變化:

參考文獻(xiàn)將q稱為推動因素,因為其能增強學(xué)習(xí)速率,將r(q)稱為有效的學(xué)習(xí)速率。

有效學(xué)習(xí)速率相對于所選的學(xué)習(xí)速率而言更高:基于此約束參數(shù)值的規(guī)一化可以幫助簡化學(xué)習(xí)速率選擇過程。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • Dropout
    +關(guān)注

    關(guān)注

    0

    文章

    13

    瀏覽量

    10156
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5547

    瀏覽量

    122315

原文標(biāo)題:理解神經(jīng)網(wǎng)絡(luò)中的Dropout

文章出處:【微信號:Imgtec,微信公眾號:Imagination Tech】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    基于智能語音交互芯片的模擬訓(xùn)練器示教與回放系統(tǒng)設(shè)計

    ,提高了培訓(xùn)效果?;胤畔到y(tǒng)通過記錄操作訓(xùn)練過程中各操作人員的口令、聲音強度、動作、時間、操作現(xiàn)象等,待操作訓(xùn)練結(jié)束后通過重演訓(xùn)練過程,以便操作者及時糾正自己的問題。示教系統(tǒng)也可理解為對標(biāo)準(zhǔn)操作
    發(fā)表于 07-01 08:07

    Python和Keras在訓(xùn)練期間如何將高斯噪聲添加到輸入數(shù)據(jù)中呢?

    噪聲,模型被迫學(xué)習(xí)對輸入中的微小變化具有魯棒性的特征,這可以幫助它在新的、看不見的數(shù)據(jù)上表現(xiàn)更好。 高斯噪聲也可以在訓(xùn)練過程中添加到神經(jīng)網(wǎng)絡(luò)的權(quán)重中以提高其性能,這種技術(shù)稱為 Dropout。讓我們
    發(fā)表于 02-16 14:04

    基于有限狀態(tài)機的虛擬訓(xùn)練過程模型研究

    通過一個基于操作規(guī)程的虛擬訓(xùn)練系統(tǒng)研究了系統(tǒng)仿真流程,分析了有限狀態(tài)機(FSM)的原理,結(jié)合虛擬仿真訓(xùn)練的特點,設(shè)計出了操作過程模型,并通過Windows 消息機制編程實
    發(fā)表于 12-07 14:23 ?14次下載

    理解神經(jīng)網(wǎng)絡(luò)中的Dropout

    dropout是指在深度學(xué)習(xí)網(wǎng)絡(luò)的訓(xùn)練過程中,對于神經(jīng)網(wǎng)絡(luò)單元,按照一定的概率將其暫時從網(wǎng)絡(luò)中丟棄。注意是暫時,對于隨機梯度下降來說,由于是隨機丟棄,故而每一個mini-batch都在訓(xùn)練不同的網(wǎng)絡(luò)
    發(fā)表于 11-16 01:11 ?3916次閱讀
    理解神經(jīng)網(wǎng)絡(luò)中的<b class='flag-5'>Dropout</b>

    卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程中的SGD的并行化設(shè)計

    for parallelizing convolutional neural networks 本文也將針對這篇文章給出分析。 1、簡介 介紹一種卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程中的SGD的并行化方法。
    發(fā)表于 11-16 14:43 ?3470次閱讀

    分類器的訓(xùn)練過程

    opencv中haar、lbp的訓(xùn)練原理及過程
    發(fā)表于 11-27 15:18 ?0次下載

    基于分割后門訓(xùn)練過程的后門防御方法

    后門攻擊的目標(biāo)是通過修改訓(xùn)練數(shù)據(jù)或者控制訓(xùn)練過程等方法使得模型預(yù)測正確干凈樣本,但是對于帶有后門的樣本判斷為目標(biāo)標(biāo)簽。例如,后門攻擊者給圖片增加固定位置的白塊(即中毒圖片)并且修改圖片的標(biāo)簽為目標(biāo)標(biāo)簽。用這些中毒數(shù)據(jù)訓(xùn)練模型過后
    的頭像 發(fā)表于 01-05 09:23 ?1187次閱讀

    深度學(xué)習(xí)模型訓(xùn)練過程詳解

    詳細(xì)介紹深度學(xué)習(xí)模型訓(xùn)練的全過程,包括數(shù)據(jù)預(yù)處理、模型構(gòu)建、損失函數(shù)定義、優(yōu)化算法選擇、訓(xùn)練過程以及模型的評估與調(diào)優(yōu)。
    的頭像 發(fā)表于 07-01 16:13 ?2173次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的基本原理、結(jié)構(gòu)及訓(xùn)練過程

    、訓(xùn)練過程以及應(yīng)用場景。 一、卷積神經(jīng)網(wǎng)絡(luò)的基本原理 卷積運算 卷積運算是卷積神經(jīng)網(wǎng)絡(luò)的核心,它是一種數(shù)學(xué)運算,用于提取圖像中的局部特征。卷積運算的過程如下: (1)定義卷積核:卷積核是一個小的矩陣,用于在輸入圖像上滑動,提取局部特征。 (2)滑動窗口:將
    的頭像 發(fā)表于 07-02 14:21 ?3856次閱讀

    CNN模型的基本原理、結(jié)構(gòu)、訓(xùn)練過程及應(yīng)用領(lǐng)域

    CNN模型的基本原理、結(jié)構(gòu)、訓(xùn)練過程以及應(yīng)用領(lǐng)域。 卷積神經(jīng)網(wǎng)絡(luò)的基本原理 1.1 卷積運算 卷積運算是CNN模型的核心,它是一種數(shù)學(xué)運算
    的頭像 發(fā)表于 07-02 15:26 ?5125次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)和訓(xùn)練過程

    處理具有空間層次結(jié)構(gòu)的數(shù)據(jù)時表現(xiàn)出色。本文將從卷積神經(jīng)網(wǎng)絡(luò)的歷史背景、基本原理、網(wǎng)絡(luò)結(jié)構(gòu)、訓(xùn)練過程以及應(yīng)用領(lǐng)域等方面進(jìn)行詳細(xì)闡述,以期全面解析這一重要算法。
    的頭像 發(fā)表于 07-02 18:27 ?1447次閱讀

    深度學(xué)習(xí)的典型模型和訓(xùn)練過程

    深度學(xué)習(xí)作為人工智能領(lǐng)域的一個重要分支,近年來在圖像識別、語音識別、自然語言處理等多個領(lǐng)域取得了顯著進(jìn)展。其核心在于通過構(gòu)建復(fù)雜的神經(jīng)網(wǎng)絡(luò)模型,從大規(guī)模數(shù)據(jù)中自動學(xué)習(xí)并提取特征,進(jìn)而實現(xiàn)高效準(zhǔn)確的預(yù)測和分類。本文將深入解讀深度學(xué)習(xí)中的典型模型及其訓(xùn)練過程,旨在為讀者提供一個全面而深入的理解。
    的頭像 發(fā)表于 07-03 16:06 ?2386次閱讀

    解讀PyTorch模型訓(xùn)練過程

    PyTorch作為一個開源的機器學(xué)習(xí)庫,以其動態(tài)計算圖、易于使用的API和強大的靈活性,在深度學(xué)習(xí)領(lǐng)域得到了廣泛的應(yīng)用。本文將深入解讀PyTorch模型訓(xùn)練的全過程,包括數(shù)據(jù)準(zhǔn)備、模型構(gòu)建、訓(xùn)練循環(huán)、評估與保存等關(guān)鍵步驟,并結(jié)合
    的頭像 發(fā)表于 07-03 16:07 ?1587次閱讀

    BP神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)和訓(xùn)練過程

    網(wǎng)絡(luò)結(jié)構(gòu),通過誤差反向傳播算法(Error Backpropagation Algorithm)來訓(xùn)練網(wǎng)絡(luò),實現(xiàn)對復(fù)雜問題的學(xué)習(xí)和解決。以下將詳細(xì)闡述BP神經(jīng)網(wǎng)絡(luò)的工作方式,涵蓋其基本原理、訓(xùn)練過程、應(yīng)用實例以及優(yōu)缺點等多個方面。
    的頭像 發(fā)表于 07-10 15:07 ?6852次閱讀
    BP神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)和<b class='flag-5'>訓(xùn)練過程</b>

    GPU是如何訓(xùn)練AI大模型的

    在AI模型的訓(xùn)練過程中,大量的計算工作集中在矩陣乘法、向量加法和激活函數(shù)等運算上。這些運算正是GPU所擅長的。接下來,AI部落小編您了解GPU是如何訓(xùn)練AI大模型的。
    的頭像 發(fā)表于 12-19 17:54 ?550次閱讀