一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

詳細剖析神經網(wǎng)絡和深度神經網(wǎng)絡的區(qū)別

zhKF_jqr_AI ? 2017-12-27 17:20 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

深度網(wǎng)絡,顧名思義,就是有“很多”層的網(wǎng)絡。

那么到底多少層算深度呢?這個問題可能沒有一個明確的答案。某種意義上,這個問題類似“有多少粒沙子才能算沙丘”。但是,一般而言,我們把有兩層或兩層以上隱藏層的網(wǎng)絡叫做深度網(wǎng)絡。相反,只有一個隱藏層的網(wǎng)絡通常被認為是“淺度網(wǎng)絡”。當然,我懷疑我們也許會經歷網(wǎng)絡層數(shù)的通貨膨脹。十年之后,人們也許會認為10層隱藏層的網(wǎng)絡都是“淺度網(wǎng)絡”,只適合幼兒園小孩做練習用。非正式的說法,“深度”暗示應對這樣的網(wǎng)絡比較困難。

詳細剖析神經網(wǎng)絡和深度神經網(wǎng)絡的區(qū)別

但是,你真正想問的問題,其實是為什么更多的隱藏層有用?

多少讓人吃驚的是,其實沒人知道真正的原因。下面我將簡要地介紹一些常見的解釋,但是這些解釋的真實性還不能令人信服。我們甚至都不能確信更多的層真的起到了作用。

我說這讓人吃驚,是因為深度學習在業(yè)界非常流行,年年在圖像辨識、圍棋、自動翻譯等很多領域突破記錄。然而我們卻始終不清楚深度學習的效果為什么這么好。

通用逼近理論(universal approximation theorem)表明,一個“淺度”神經網(wǎng)絡(有一個隱藏層的神經網(wǎng)絡)可以逼近任何函數(shù),也就是說,淺度神經網(wǎng)絡原則上可以學習任何東西。因此可以逼近許多非線性激活函數(shù),包括現(xiàn)在深度網(wǎng)絡廣泛使用的ReLu函數(shù)。

既然如此,為什么大家還要用深度網(wǎng)絡?

好吧,一個樸素的回答是因為它們效果更好。下圖是Goodfellow等著《深度學習》中的一張圖片,表明對某個特定問題而言,隱藏層越多,精確度越高。在其他許多任務和領域中同樣可以觀察到這個現(xiàn)象。

詳細剖析神經網(wǎng)絡和深度神經網(wǎng)絡的區(qū)別

我們知道一個淺度網(wǎng)絡本可以做得和深度網(wǎng)絡一樣好,但是事實往往并非如此。問題來了——為什么?可能的答案包括:

也許一個淺度網(wǎng)絡需要比深度網(wǎng)絡更多的神經元?

也許我們目前的算法不適合訓練淺度網(wǎng)絡?

也許我們通常試圖解決的問題不適合淺度網(wǎng)絡?

其他原因?

Goodfellow等著《深度學習》為上面的第一個和第三個答案提供了一些理由。淺度網(wǎng)絡的神經元數(shù)量將隨著任務復雜度的提升進行幾何級數(shù)的增長,因此淺度網(wǎng)絡要發(fā)揮作用,會變得很大,很可能比深度網(wǎng)絡更大。這個理由的依據(jù)是很多論文都證明了在某些案例中,淺度網(wǎng)絡的神經元數(shù)量將隨著任務復雜度的提升進行幾何級數(shù)的增長,但是我們并不清楚這一結論是否適用于諸如MNIST分類和圍棋這樣的任務。

關于第三個答案,《深度學習》一書是這么說的:

選擇深度模型編碼了一個非常通用的信念,我們想要學習的函數(shù)應該涉及若干較簡單的函數(shù)的組合。從表征學習的視角來說,我們相信正學習的問題包括發(fā)現(xiàn)一組差異的底層因素,這些因素可以進一步用其他更簡單的差異的底層因素來描述。

我認為目前的“共識”是上述第一個和第三個答案的組合是深度網(wǎng)絡有效的原因。

但是這離證明還很遠。2015年提出的150+層的殘差網(wǎng)絡贏得了多項圖像辨識競賽的冠軍。這是一個巨大的成功,看起來是一個令人難以抗拒的越深越好的論據(jù)。

詳細剖析神經網(wǎng)絡和深度神經網(wǎng)絡的區(qū)別

然而,2016年提出的廣殘差網(wǎng)絡(Wide Residual Networks)以16層的網(wǎng)絡超越了150+層的殘差網(wǎng)絡。

Ba和Caruana在2014年發(fā)表的論文《Do Deep Nets Really Need to be Deep?》(深度網(wǎng)絡真的需要那么深嗎?)通過模型壓縮方案,用淺度網(wǎng)絡模擬一個訓練好的深度網(wǎng)絡,對某些深度網(wǎng)絡而言,模擬它們的淺度網(wǎng)絡能表現(xiàn)得一樣好,盡管直接在相應數(shù)據(jù)集上訓練淺度網(wǎng)絡無法達到這樣的表現(xiàn)。

所以,也許真正的答案是上文提到的第二個答案。

正如我一開始說的那樣,現(xiàn)在還沒人確定自己知道真正的答案。

過去10年來,深度學習方面的進展令人驚嘆!然而,大多數(shù)進展是通過試錯法得到的,我們仍然缺乏對到底是什么讓深度網(wǎng)絡起效的基本理解。甚至,對到底什么是配置高效的深度網(wǎng)絡的關鍵這個問題,人們的答案也經常變來變去。

Geoffrey Hinton在神經網(wǎng)絡方面工作了20+年,卻長期沒有得到多少關注。直到2006年發(fā)表了一系列突破性的論文,介紹了訓練深度網(wǎng)絡的有效技巧——在梯度下降前先進行無監(jiān)督預訓練。之后很久的一段時間人們都認為無監(jiān)督預訓練是關鍵。

接著,在2010年Martens表明Hessian-free優(yōu)化的效果更好。在2013年,Sutskever等人表明隨機梯度下降加上一些非常聰明的技巧能表現(xiàn)得更好。同時,在2010年大家意識到用ReLu代替Sigmoid能顯著改善梯度下降的表現(xiàn)。2014年提出了dropout。2015年提出了殘差網(wǎng)絡。人們提出了越來越多有效的訓練網(wǎng)絡的方法,10年前至關重要的洞見在今天常常被人厭煩。這些大部分都是由試錯法驅動的,我們對為什么某種技巧效果這么好,另一種技巧效果不那么好知之甚少。

我們甚至不知道為什么深度網(wǎng)絡達到表現(xiàn)高原;10年前人們歸咎于極小值,但現(xiàn)在人們不這么看了(達到表現(xiàn)高原時梯度趨向于保持一個較大值)。這是一個非?;镜挠嘘P深度網(wǎng)絡的問題,而我們甚至連這也不知道。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標題:CrossValidated問答:神經網(wǎng)絡和深度神經網(wǎng)絡有什么不一樣?

文章出處:【微信號:jqr_AI,微信公眾號:論智】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    神經網(wǎng)絡資料

    基于深度學習的神經網(wǎng)絡算法
    發(fā)表于 05-16 17:25

    全連接神經網(wǎng)絡和卷積神經網(wǎng)絡有什么區(qū)別

    全連接神經網(wǎng)絡和卷積神經網(wǎng)絡區(qū)別
    發(fā)表于 06-06 14:21

    卷積神經網(wǎng)絡如何使用

    卷積神經網(wǎng)絡(CNN)究竟是什么,鑒于神經網(wǎng)絡在工程上經歷了曲折的歷史,您為什么還會在意它呢? 對于這些非常中肯的問題,我們似乎可以給出相對簡明的答案。
    發(fā)表于 07-17 07:21

    【案例分享】ART神經網(wǎng)絡與SOM神經網(wǎng)絡

    今天學習了兩個神經網(wǎng)絡,分別是自適應諧振(ART)神經網(wǎng)絡與自組織映射(SOM)神經網(wǎng)絡。整體感覺不是很難,只不過一些最基礎的概念容易理解不清。首先ART神經網(wǎng)絡是競爭學習的一個代表,
    發(fā)表于 07-21 04:30

    深度神經網(wǎng)絡是什么

    多層感知機 深度神經網(wǎng)絡in collaboration with Hsu Chung Chuan, Lin Min Htoo, and Quah Jia Yong. 與許忠傳,林敏濤和華佳勇合作
    發(fā)表于 07-12 06:35

    如何構建神經網(wǎng)絡?

    原文鏈接:http://tecdat.cn/?p=5725 神經網(wǎng)絡是一種基于現(xiàn)有數(shù)據(jù)創(chuàng)建預測的計算系統(tǒng)。如何構建神經網(wǎng)絡?神經網(wǎng)絡包括:輸入層:根據(jù)現(xiàn)有數(shù)據(jù)獲取輸入的層隱藏層:使用反向傳播優(yōu)化輸入變量權重的層,以提高模型的預測
    發(fā)表于 07-12 08:02

    卷積神經網(wǎng)絡模型發(fā)展及應用

    卷積神經網(wǎng)絡模型發(fā)展及應用轉載****地址:http://fcst.ceaj.org/CN/abstract/abstract2521.shtml深度學習是機器學習和人工智能研究的最新趨勢,作為一個
    發(fā)表于 08-02 10:39

    【人工神經網(wǎng)絡基礎】為什么神經網(wǎng)絡選擇了“深度”?

    由 Demi 于 星期四, 2018-09-06 09:33 發(fā)表 現(xiàn)在提到“神經網(wǎng)絡”和“深度神經網(wǎng)絡”,會覺得兩者沒有什么區(qū)別,神經網(wǎng)絡
    發(fā)表于 09-06 20:48 ?840次閱讀

    什么是神經網(wǎng)絡?什么是卷積神經網(wǎng)絡?

    在介紹卷積神經網(wǎng)絡之前,我們先回顧一下神經網(wǎng)絡的基本知識。就目前而言,神經網(wǎng)絡深度學習算法的核心,我們所熟知的很多深度學習算法的背后其實都
    的頭像 發(fā)表于 02-23 09:14 ?4347次閱讀

    卷積神經網(wǎng)絡深度神經網(wǎng)絡的優(yōu)缺點 卷積神經網(wǎng)絡深度神經網(wǎng)絡區(qū)別

    深度神經網(wǎng)絡是一種基于神經網(wǎng)絡的機器學習算法,其主要特點是由多層神經元構成,可以根據(jù)數(shù)據(jù)自動調整神經元之間的權重,從而實現(xiàn)對大規(guī)模數(shù)據(jù)進行預
    發(fā)表于 08-21 17:07 ?4690次閱讀

    人工神經網(wǎng)絡和bp神經網(wǎng)絡區(qū)別

    人工神經網(wǎng)絡和bp神經網(wǎng)絡區(qū)別? 人工神經網(wǎng)絡(Artificial Neural Network, ANN)是一種模仿人腦神經元網(wǎng)絡結構
    的頭像 發(fā)表于 08-22 16:45 ?5428次閱讀

    卷積神經網(wǎng)絡和bp神經網(wǎng)絡區(qū)別

    不同的神經網(wǎng)絡模型,它們在結構、原理、應用等方面都存在一定的差異。本文將從多個方面對這兩種神經網(wǎng)絡進行詳細的比較和分析。 引言 神經網(wǎng)絡是一種模擬人腦
    的頭像 發(fā)表于 07-02 14:24 ?6165次閱讀

    深度神經網(wǎng)絡與基本神經網(wǎng)絡區(qū)別

    在探討深度神經網(wǎng)絡(Deep Neural Networks, DNNs)與基本神經網(wǎng)絡(通常指傳統(tǒng)神經網(wǎng)絡或前向神經網(wǎng)絡)的
    的頭像 發(fā)表于 07-04 13:20 ?1833次閱讀

    循環(huán)神經網(wǎng)絡和卷積神經網(wǎng)絡區(qū)別

    循環(huán)神經網(wǎng)絡(Recurrent Neural Network,RNN)和卷積神經網(wǎng)絡(Convolutional Neural Network,CNN)是深度學習領域中兩種非常重要的神經網(wǎng)絡
    的頭像 發(fā)表于 07-04 14:24 ?2116次閱讀

    BP神經網(wǎng)絡和人工神經網(wǎng)絡區(qū)別

    BP神經網(wǎng)絡和人工神經網(wǎng)絡(Artificial Neural Networks,簡稱ANNs)之間的關系與區(qū)別,是神經網(wǎng)絡領域中一個基礎且重要的話題。本文將從定義、結構、算法、應用及
    的頭像 發(fā)表于 07-10 15:20 ?2310次閱讀