一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

通過刪除神經(jīng)元理解深度學(xué)習(xí)

DPVg_AI_era ? 來源:未知 ? 作者:鄧佳佳 ? 2018-03-26 10:14 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

理解深度神經(jīng)網(wǎng)絡(luò)的運(yùn)作機(jī)制對于幫助我們解釋它們的決定,以及構(gòu)建更強(qiáng)大的系統(tǒng)起到了至關(guān)重要的作用。例如,試想在不了解個(gè)體齒輪如何嚙合的情況下去構(gòu)建時(shí)鐘會有多么的困難。在神經(jīng)科學(xué)和深度學(xué)習(xí)中,理解神經(jīng)網(wǎng)絡(luò)的一種方法是調(diào)查個(gè)體神經(jīng)元所扮演的“角色”,尤其是那些易于解釋的神經(jīng)元。

我們對單一方向泛化的重要性的研究(On the importance of single directions for generalization)即將在第六屆國際學(xué)習(xí)表征會議 (ICLR)上問世,該研究采用的方法受到數(shù)十年實(shí)驗(yàn)神經(jīng)科學(xué)的啟發(fā)– 通過探索刪除神經(jīng)元帶來的影響 – 來確定深度神經(jīng)網(wǎng)絡(luò)中神經(jīng)元小組的重要性,以及相對容易解釋的神經(jīng)元是否對神經(jīng)網(wǎng)絡(luò)的計(jì)算更為重要?

我們通過刪除單個(gè)神經(jīng)元以及神經(jīng)元小組對其所在的網(wǎng)絡(luò)性能的損害來研究它們的影響力。我們的實(shí)驗(yàn)帶來了兩個(gè)令人驚訝的發(fā)現(xiàn):

雖然以前的許多研究都集中于解讀易解釋的單個(gè)神經(jīng)元(例如,“貓神經(jīng)元”,或深層網(wǎng)絡(luò)隱藏層中只對貓的圖像有反應(yīng)的神經(jīng)元),但是我們發(fā)現(xiàn)這些可解釋的神經(jīng)元相對于難懂的,難以解釋其活動的神經(jīng)元來說并沒有更加重要。

能夠?qū)ξ粗獔D像進(jìn)行正確分類的網(wǎng)絡(luò)比只能對已知圖像進(jìn)行正確分類的神經(jīng)網(wǎng)絡(luò)更能適應(yīng)神經(jīng)元的刪除。換句話說,泛性好的網(wǎng)絡(luò)比那些記憶網(wǎng)絡(luò)更少依賴單一方向的輸入。

“貓神經(jīng)元”可能更易于解釋,但它們并不重要

在神經(jīng)科學(xué)和深度學(xué)習(xí)中,對單個(gè)輸入類別的圖像(例如狗)作出響應(yīng)的易于解釋的神經(jīng)元(“選擇性”神經(jīng)元)已經(jīng)得到了廣泛的研究。在深度學(xué)習(xí)中,這導(dǎo)致了對貓神經(jīng)元,情緒神經(jīng)元和括號神經(jīng)元的強(qiáng)調(diào);在神經(jīng)科學(xué),有詹妮弗安妮斯頓神經(jīng)元研究,等等。然而,這些少數(shù)高選擇性神經(jīng)元相對于大多數(shù)具有低選擇性、更難懂,難以解釋其活動的神經(jīng)元的重要性仍然未知。

具有明顯響應(yīng)模式(例如,對貓活躍,對其他所有活動不活躍)的神經(jīng)元比看到隨機(jī)圖像活躍和不活躍的神經(jīng)元更容易解釋。

為了評估(某個(gè))神經(jīng)元的重要性,我們測量了當(dāng)該神經(jīng)元被刪除時(shí),神經(jīng)網(wǎng)絡(luò)在圖像分類任務(wù)上的表現(xiàn)變化。如果一個(gè)神經(jīng)元是非常重要的,刪除它應(yīng)會對神經(jīng)網(wǎng)絡(luò)產(chǎn)生高度的破壞性,大大降低該網(wǎng)絡(luò)的性能;相反地,刪除一個(gè)不重要的神經(jīng)元?jiǎng)t應(yīng)該無法對神經(jīng)網(wǎng)絡(luò)構(gòu)成很大影響。神經(jīng)科學(xué)家經(jīng)常進(jìn)行類似的實(shí)驗(yàn),然而他們很難達(dá)到這些實(shí)驗(yàn)所需的精度,而這精度在人工神經(jīng)網(wǎng)絡(luò)中恰恰容易獲得。

刪除神經(jīng)元對簡單神經(jīng)網(wǎng)絡(luò)影響的直觀圖示。顏色較深的神經(jīng)元更加活躍。嘗試點(diǎn)擊隱藏層中的神經(jīng)元并刪除它們,觀察輸出神經(jīng)元的活動會如何改變。請注意,刪除一個(gè)或兩個(gè)神經(jīng)元對輸出影響很小,而刪除大部分神經(jīng)元?jiǎng)t會對輸出影響很大,并且一些神經(jīng)元比其他神經(jīng)元更重要!

令人驚訝的是,我們發(fā)現(xiàn)選擇性強(qiáng)的神經(jīng)元和重要性之間幾乎沒有關(guān)系。換句話說,“貓神經(jīng)元”并不比難懂神經(jīng)元更加重要。這一發(fā)現(xiàn)與最近在神經(jīng)科學(xué)方面的工作相互呼應(yīng),即難懂神經(jīng)元實(shí)際上可以提供很多信息。我們需將視野拓展到最易于解釋的神經(jīng)元以外來了解深度神經(jīng)網(wǎng)絡(luò)。

“貓神經(jīng)元”可能更易解釋,但它們并不比難懂的沒有明顯偏好的神經(jīng)元更重要。嘗試點(diǎn)擊上圖的二維線畫圖函數(shù),看看重要性和易解釋性之間的關(guān)系!

盡管可解釋的神經(jīng)元在直覺上更容易理解(“它喜歡狗”),但它們并不比難懂的,沒有明顯偏好的神經(jīng)元更重要。

越泛化的神經(jīng)網(wǎng)絡(luò),越難被打破

對于我們正在努力構(gòu)建的智能系統(tǒng)來說,只有當(dāng)這種系統(tǒng)能夠推廣到對新的情況進(jìn)行解讀時(shí),我們才能稱之為智能系統(tǒng)。例如,一個(gè)圖像分類網(wǎng)絡(luò)如果只能對以前看過的特定狗的圖像進(jìn)行分類,而不能對同一只狗的新的圖像進(jìn)行分類的話,那么它是無用的。只有當(dāng)它可以對新的例子進(jìn)行智能分類時(shí),這個(gè)系統(tǒng)才能展現(xiàn)了它的效用。 一篇由Google Brain,Berkeley大學(xué)和DeepMind最近在ICLR 2017上獲得最佳論文的合作論文表明,深度網(wǎng)絡(luò)可以簡單地記住它們接受過培訓(xùn)的每個(gè)圖像,然而卻不能以類人類的方式對圖像進(jìn)行學(xué)習(xí)(例如,了解抽象的“狗”概念)。

通常我們不知道網(wǎng)絡(luò)是否已經(jīng)學(xué)會了一種能夠推廣到新情況的解決方案。通過逐漸刪除越來越大的神經(jīng)元組,我們發(fā)現(xiàn),相比起對以前訓(xùn)練期間看到的圖像進(jìn)行簡單記憶的網(wǎng)絡(luò),泛化良好的網(wǎng)絡(luò)在應(yīng)對刪除時(shí)表現(xiàn)出的穩(wěn)健性要強(qiáng)得多。換句話說,泛化好的網(wǎng)絡(luò)很難被打破(盡管它們肯定還是會被打破的)。

隨著越來越多的神經(jīng)元組被刪除,泛化的網(wǎng)絡(luò)性能的下降速度遠(yuǎn)遠(yuǎn)低于記憶網(wǎng)絡(luò)的性能。

通過以這種衡量網(wǎng)絡(luò)的穩(wěn)健性的方式,我們可以評估一個(gè)網(wǎng)絡(luò)是否在利用記憶來進(jìn)行“欺騙”。了解網(wǎng)絡(luò)在進(jìn)行記憶時(shí)的變化將有助于我們建立新的網(wǎng)絡(luò),這種網(wǎng)絡(luò)記憶較少,泛化較強(qiáng)。

受到神經(jīng)科學(xué)啟發(fā)的分析

總之,這些發(fā)現(xiàn)證明了使用受實(shí)驗(yàn)神經(jīng)科學(xué)啟發(fā)的技術(shù)對理解神經(jīng)網(wǎng)絡(luò)的重要作用。通過這些方法,我們發(fā)現(xiàn)選擇性強(qiáng)的個(gè)體神經(jīng)元并不一定比不具選擇性的神經(jīng)元更加重要,并且,單個(gè)神經(jīng)元對泛化的網(wǎng)絡(luò)的影響比其對單純依靠記憶數(shù)據(jù)訓(xùn)練出來的網(wǎng)絡(luò)更小。這些結(jié)果意味著單個(gè)神經(jīng)元的重要性可能比你乍看上去的要低。

試圖了解所有神經(jīng)元,而不僅僅是那些易于理解的神經(jīng)元的作用可以幫助我們更好地理解神經(jīng)網(wǎng)絡(luò)的內(nèi)部工作,更加重要的是,我們可以利用這種理解來構(gòu)建更加智能和應(yīng)用廣泛的系統(tǒng)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)
    +關(guān)注

    關(guān)注

    0

    文章

    46

    瀏覽量

    12664
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5561

    瀏覽量

    122794

原文標(biāo)題:DeepMind 最新研究:通過刪除神經(jīng)元理解深度學(xué)習(xí)

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    無刷直流電機(jī)單神經(jīng)元自適應(yīng)智能控制系統(tǒng)

    摘要:針對無刷直流電機(jī)(BLDCM)設(shè)計(jì)了一種可在線學(xué)習(xí)的單神經(jīng)元自適應(yīng)比例-積分-微分(PID)智能控制器,通過有監(jiān)督的 Hebb學(xué)習(xí)規(guī)則調(diào)整權(quán)值,每次采樣根據(jù)反饋誤差對
    發(fā)表于 06-26 13:36

    無刷直流電機(jī)單神經(jīng)元PI控制器的設(shè)計(jì)

    刷直流電機(jī)單神經(jīng)元PI控制器的設(shè)計(jì).pdf 【免責(zé)聲明】本文系網(wǎng)絡(luò)轉(zhuǎn)載,版權(quán)歸原作者所有。本文所用視頻、圖片、文字如涉及作品版權(quán)問題,請第一時(shí)間告知,刪除內(nèi)容,謝謝!
    發(fā)表于 06-26 13:34

    嵌入式AI技術(shù)之深度學(xué)習(xí):數(shù)據(jù)樣本預(yù)處理過程中使用合適的特征變換對深度學(xué)習(xí)的意義

    ? 作者:蘇勇Andrew 使用神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)機(jī)器學(xué)習(xí),網(wǎng)絡(luò)的每個(gè)層都將對輸入的數(shù)據(jù)做一次抽象,多層神經(jīng)網(wǎng)絡(luò)構(gòu)成深度學(xué)習(xí)的框架,可以
    的頭像 發(fā)表于 04-02 18:21 ?885次閱讀

    BP神經(jīng)網(wǎng)絡(luò)的網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)原則

    ,僅作為數(shù)據(jù)輸入的接口。輸入層的神經(jīng)元個(gè)數(shù)通常與輸入數(shù)據(jù)的特征數(shù)量相對應(yīng)。 隱藏層 :對輸入信號進(jìn)行非線性變換,是神經(jīng)網(wǎng)絡(luò)的核心部分,負(fù)責(zé)學(xué)習(xí)輸入與輸出之間的復(fù)雜映射關(guān)系。隱藏層可以有一層或多層,層數(shù)和
    的頭像 發(fā)表于 02-12 16:41 ?743次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的比較

    多層。 每一層都由若干個(gè)神經(jīng)元構(gòu)成,神經(jīng)元之間通過權(quán)重連接。信號在神經(jīng)網(wǎng)絡(luò)中是前向傳播的,而誤差是反向傳播的。 卷積神經(jīng)網(wǎng)絡(luò)(CNN) :
    的頭像 發(fā)表于 02-12 15:53 ?668次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)的關(guān)系

    ),是一種多層前饋神經(jīng)網(wǎng)絡(luò),它通過反向傳播算法進(jìn)行訓(xùn)練。BP神經(jīng)網(wǎng)絡(luò)由輸入層、一個(gè)或多個(gè)隱藏層和輸出層組成,通過逐層遞減的方式調(diào)整網(wǎng)絡(luò)權(quán)重,目的是最小化網(wǎng)絡(luò)的輸出誤差。 二、
    的頭像 發(fā)表于 02-12 15:15 ?862次閱讀

    深度學(xué)習(xí)入門:簡單神經(jīng)網(wǎng)絡(luò)的構(gòu)建與實(shí)現(xiàn)

    深度學(xué)習(xí)中,神經(jīng)網(wǎng)絡(luò)是核心模型。今天我們用 Python 和 NumPy 構(gòu)建一個(gè)簡單的神經(jīng)網(wǎng)絡(luò)。 神經(jīng)網(wǎng)絡(luò)由多個(gè)
    的頭像 發(fā)表于 01-23 13:52 ?530次閱讀

    人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法

    所擬合的數(shù)學(xué)模型的形式受到大腦中神經(jīng)元的連接和行為的啟發(fā),最初是為了研究大腦功能而設(shè)計(jì)的。然而,數(shù)據(jù)科學(xué)中常用的神經(jīng)網(wǎng)絡(luò)作為大腦模型已經(jīng)過時(shí),現(xiàn)在它們只是能夠在某些應(yīng)用中提供最先進(jìn)性能的機(jī)器學(xué)習(xí)模型。近年來,由于
    的頭像 發(fā)表于 01-09 10:24 ?1190次閱讀
    人工<b class='flag-5'>神經(jīng)</b>網(wǎng)絡(luò)的原理和多種<b class='flag-5'>神經(jīng)</b>網(wǎng)絡(luò)架構(gòu)方法

    卷積神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的比較

    深度學(xué)習(xí)領(lǐng)域,神經(jīng)網(wǎng)絡(luò)模型被廣泛應(yīng)用于各種任務(wù),如圖像識別、自然語言處理和游戲智能等。其中,卷積神經(jīng)網(wǎng)絡(luò)(CNNs)和傳統(tǒng)神經(jīng)網(wǎng)絡(luò)是兩種常
    的頭像 發(fā)表于 11-15 14:53 ?1872次閱讀

    深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)模型

    深度學(xué)習(xí)近年來在多個(gè)領(lǐng)域取得了顯著的進(jìn)展,尤其是在圖像識別、語音識別和自然語言處理等方面。卷積神經(jīng)網(wǎng)絡(luò)作為深度學(xué)習(xí)的一個(gè)分支,因其在圖像處理
    的頭像 發(fā)表于 11-15 14:52 ?846次閱讀

    RNN模型與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的區(qū)別

    傳統(tǒng)神經(jīng)網(wǎng)絡(luò)(前饋神經(jīng)網(wǎng)絡(luò)) 2.1 結(jié)構(gòu) 傳統(tǒng)神經(jīng)網(wǎng)絡(luò),通常指的是前饋神經(jīng)網(wǎng)絡(luò)(Feedforward Neural Networks, FNN),是一種最簡單的人工
    的頭像 發(fā)表于 11-15 09:42 ?1128次閱讀

    NPU在深度學(xué)習(xí)中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)作為其核心驅(qū)動力之一,已經(jīng)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和價(jià)值。NPU(Neural Processing Unit,神經(jīng)網(wǎng)絡(luò)處理單元)是專門為深度
    的頭像 發(fā)表于 11-14 15:17 ?1918次閱讀

    關(guān)于卷積神經(jīng)網(wǎng)絡(luò),這些概念你厘清了么~

    神經(jīng)元都是輸入的線性變換——將輸入乘以數(shù)字(權(quán)重w)并加上一個(gè)常數(shù)(偏置b),然后通過一個(gè)固定的非線性函數(shù)產(chǎn)生輸出,該函數(shù)也被稱為激活函數(shù) ^1^ 。作為網(wǎng)絡(luò)中唯一的非線性部分,激活函數(shù)用于定義人工神經(jīng)元
    發(fā)表于 10-24 13:56

    AI大模型與深度學(xué)習(xí)的關(guān)系

    AI大模型與深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進(jìn),相輔相成。以下是對兩者關(guān)系的介紹: 一、深度學(xué)習(xí)是AI大模型的基礎(chǔ) 技術(shù)支撐 :深度
    的頭像 發(fā)表于 10-23 15:25 ?2892次閱讀

    Python自動訓(xùn)練人工神經(jīng)網(wǎng)絡(luò)

    人工神經(jīng)網(wǎng)絡(luò)(ANN)是機(jī)器學(xué)習(xí)中一種重要的模型,它模仿了人腦神經(jīng)元的工作方式,通過多層節(jié)點(diǎn)(神經(jīng)元)之間的連接和權(quán)重調(diào)整來
    的頭像 發(fā)表于 07-19 11:54 ?703次閱讀