一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

神經(jīng)網(wǎng)絡中的dropout是什么?怎么使用

汽車玩家 ? 來源:CSDN ? 作者:_VioletHan_ ? 2020-01-28 17:44 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

一、dropout目的

Dropout是在《ImageNet Classification with Deep Convolutional》這篇論文里提出來為了防止神經(jīng)網(wǎng)絡的過擬合。它的主要思想是讓隱藏層的節(jié)點在每次迭代時(包括正向和反向傳播)有一定幾率(keep-prob)失效。這樣來預防過擬合。它主要避免對某個節(jié)點的強依賴,讓反向傳播的修正值可以更加平衡的分布到各個參數(shù)上。還有如果一些節(jié)點失效,實際上也和我們減少網(wǎng)絡復雜度是一樣的道理。所以可以防止過擬合。

二、dropout方法

(1)訓練階段

Dropout是在標準的bp網(wǎng)絡的的結構上,使bp網(wǎng)的隱層激活值,以一定的比例v變?yōu)?,即按照一定比例v,隨機地讓一部分隱層節(jié)點失效;在后面benchmark實驗測試時,部分實驗讓隱層節(jié)點失效的基礎上,使輸入數(shù)據(jù)也以一定比例(試驗用20%)是部分輸入數(shù)據(jù)失效(這個有點像denoising autoencoder),這樣得到了更好的結果。

去掉權值懲罰項,取而代之的是,限制權值的范圍,給每個權值設置一個上限范圍;如果在訓練跟新的過程中,權值超過了這個上限,則把權值設置為這個上限的值(這個上限值得設定作者并沒有說設置多少最好,后面的試驗中作者說這個上限設置為15時,最好;為啥?估計是交叉驗證得出的實驗結論)。

此外,還可以使算法使用一個比較大的學習率,來加快學習速度,從而使算法在一個更廣闊的權值空間中搜索更好的權值,而不用擔心權值過大。

(2)測試階段

Dropout只發(fā)生在模型的訓練階段,預測、測試階段則不用Dropout

三、關于dropout需要知道的

直觀認識:Dropout隨機刪除神經(jīng)元后,網(wǎng)絡變得更小,訓練階段也會提速

事實證明,dropout已經(jīng)被正式地作為一種正則化的替代形式

有了dropout,網(wǎng)絡不會為任何一個特征加上很高的權重(因為那個特征的輸入神經(jīng)元有可能被隨機刪除),最終dropout產(chǎn)生了收縮權重平方范數(shù)的效果

Dropout的功能類似于L2正則化,但Dropout更適用于不同的輸入范圍

如果你擔心某些層比其它層更容易過擬合,可以把這些層的keep-prob值設置的比其它層更低

Dropout主要用在計算機視覺領域,因為這個領域我們通常沒有足夠的數(shù)據(jù),容易過擬合。但在其它領域用的比較少

Dropout的一大缺點就是代價函數(shù)不再被明確定義,所以在訓練過程中,代價函數(shù)的值并不是單調(diào)遞減的

使用時,先關閉Dropout,設置keep-prob為1,使代價函數(shù)的值單調(diào)遞減,然后再打開Dropout

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    神經(jīng)網(wǎng)絡教程(李亞非)

      第1章 概述  1.1 人工神經(jīng)網(wǎng)絡研究與發(fā)展  1.2 生物神經(jīng)元  1.3 人工神經(jīng)網(wǎng)絡的構成  第2章人工神經(jīng)網(wǎng)絡基本模型  2.1 MP模型  2.2 感知器模型  2.3
    發(fā)表于 03-20 11:32

    神經(jīng)網(wǎng)絡簡介

    神經(jīng)網(wǎng)絡簡介
    發(fā)表于 08-05 21:01

    求助基于labview的神經(jīng)網(wǎng)絡pid控制

    小女子做基于labview的蒸發(fā)過程液位的控制,想使用神經(jīng)網(wǎng)絡pid控制,請問這個控制方法可以嗎?有誰會神經(jīng)網(wǎng)絡pid控制么。。。叩謝
    發(fā)表于 09-23 13:43

    神經(jīng)網(wǎng)絡基本介紹

    神經(jīng)網(wǎng)絡基本介紹
    發(fā)表于 01-04 13:41

    【PYNQ-Z2試用體驗】神經(jīng)網(wǎng)絡基礎知識

    神經(jīng)網(wǎng)絡的計算。對于多層多節(jié)點的神經(jīng)網(wǎng)絡,我們可以使用矩陣乘法來表示。在上面的神經(jīng)網(wǎng)絡,我們將權重作為一個矩陣,將第一層的輸入作為另一個矩陣,兩個矩陣相乘,得到的矩陣恰好為第二層的輸
    發(fā)表于 03-03 22:10

    全連接神經(jīng)網(wǎng)絡和卷積神經(jīng)網(wǎng)絡有什么區(qū)別

    全連接神經(jīng)網(wǎng)絡和卷積神經(jīng)網(wǎng)絡的區(qū)別
    發(fā)表于 06-06 14:21

    卷積神經(jīng)網(wǎng)絡如何使用

    卷積神經(jīng)網(wǎng)絡(CNN)究竟是什么,鑒于神經(jīng)網(wǎng)絡在工程上經(jīng)歷了曲折的歷史,您為什么還會在意它呢? 對于這些非常中肯的問題,我們似乎可以給出相對簡明的答案。
    發(fā)表于 07-17 07:21

    【案例分享】基于BP算法的前饋神經(jīng)網(wǎng)絡

    傳播的,不會回流),區(qū)別于循環(huán)神經(jīng)網(wǎng)絡RNN。BP算法(Back Propagation):誤差反向傳播算法,用于更新網(wǎng)絡的權重。BP神經(jīng)網(wǎng)絡思想:表面上:1. 數(shù)據(jù)信息的前向傳播,
    發(fā)表于 07-21 04:00

    【案例分享】ART神經(jīng)網(wǎng)絡與SOM神經(jīng)網(wǎng)絡

    ,同理,閾值越大,則容納的模式類也就越多----------以上純屬個人理解,如果有錯誤歡迎指正。ART比較好地緩解了競爭型學習的“可塑性-穩(wěn)定性窘境”,其中可塑性指神經(jīng)網(wǎng)絡要能夠?qū)W習新知識,穩(wěn)定性
    發(fā)表于 07-21 04:30

    如何構建神經(jīng)網(wǎng)絡?

    原文鏈接:http://tecdat.cn/?p=5725 神經(jīng)網(wǎng)絡是一種基于現(xiàn)有數(shù)據(jù)創(chuàng)建預測的計算系統(tǒng)。如何構建神經(jīng)網(wǎng)絡神經(jīng)網(wǎng)絡包括:輸入層:根據(jù)現(xiàn)有數(shù)據(jù)獲取輸入的層隱藏層:使用反向傳播優(yōu)化輸入變量權重的層,以提高模型的預測
    發(fā)表于 07-12 08:02

    基于BP神經(jīng)網(wǎng)絡的PID控制

    最近在學習電機的智能控制,上周學習了基于單神經(jīng)元的PID控制,這周研究基于BP神經(jīng)網(wǎng)絡的PID控制。神經(jīng)網(wǎng)絡具有任意非線性表達能力,可以通過對系統(tǒng)性能的學習來實現(xiàn)具有最佳組合的PID控制。利用BP
    發(fā)表于 09-07 07:43

    卷積神經(jīng)網(wǎng)絡模型發(fā)展及應用

    神經(jīng)網(wǎng)絡研究的第一次浪潮。1969 年美國數(shù)學家及人工智能先驅(qū) Minsky在其著作證 明感知器本質(zhì)上是一種線性模型[21],只能處理線性分 類問題,最簡單的異或問題都無法正確分類,因此神 經(jīng)網(wǎng)絡的研究也
    發(fā)表于 08-02 10:39

    理解神經(jīng)網(wǎng)絡Dropout

    dropout是指在深度學習網(wǎng)絡的訓練過程,對于神經(jīng)網(wǎng)絡單元,按照一定的概率將其暫時從網(wǎng)絡
    發(fā)表于 11-16 01:11 ?4015次閱讀
    理解<b class='flag-5'>神經(jīng)網(wǎng)絡</b><b class='flag-5'>中</b>的<b class='flag-5'>Dropout</b>

    基于Numpy實現(xiàn)神經(jīng)網(wǎng)絡:如何加入和調(diào)整dropout?

    幾乎所有目前最先進的神經(jīng)網(wǎng)絡都用到了dropout. 這篇教程介紹如何通過幾行Python代碼在神經(jīng)網(wǎng)絡中加入Dropout. 讀完這篇教程之后,你將得到一個可以工作的
    的頭像 發(fā)表于 04-15 09:59 ?7925次閱讀
    基于Numpy實現(xiàn)<b class='flag-5'>神經(jīng)網(wǎng)絡</b>:如何加入和調(diào)整<b class='flag-5'>dropout</b>?

    神經(jīng)網(wǎng)絡在數(shù)學建模的應用

    數(shù)學建模是一種利用數(shù)學方法和工具來描述和分析現(xiàn)實世界問題的過程。神經(jīng)網(wǎng)絡是一種模擬人腦神經(jīng)元結構和功能的計算模型,可以用于解決各種復雜問題。在數(shù)學建模,神經(jīng)網(wǎng)絡可以作為一種有效的工具
    的頭像 發(fā)表于 07-02 11:29 ?1806次閱讀