一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

深度ReLU網(wǎng)絡的對應淺層網(wǎng)絡

OpenCV學堂 ? 來源:OpenCV學堂 ? 2023-07-03 14:13 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

只要你用了ReLU,我們就是好朋就是“淺度學習”。

最近有研究證明,所有基于ReLU的深度神經(jīng)網(wǎng)絡都可以重寫為功能相同的3層神經(jīng)網(wǎng)絡。

基于這個證明,倫敦國王學院的研究團隊還提出一種為任意ReLU網(wǎng)絡找到相應淺層網(wǎng)絡的算法

由此產(chǎn)生的淺層網(wǎng)絡是透明的,可用于解釋網(wǎng)絡的行為。

只要通過算法,就能找到任意深度ReLU網(wǎng)絡的對應淺層網(wǎng)絡。

對此網(wǎng)友驚呼:我要讀這篇論文,立刻馬上!

任何深度ReLU網(wǎng)絡都是淺層的

ReLU是深度學習領域最常用的一種激活函數(shù),由Nair & Hintonw在2010為限制玻爾茲曼機(restricted Boltzmann machines)提出的。

由于常常在實踐中有著比其他常用激勵函數(shù)(例如邏輯函數(shù))更好的效果,而被深度神經(jīng)網(wǎng)絡廣泛用于圖像識別等計算機視覺人工智能領域。

論文指出,每個深度ReLU網(wǎng)絡都可以轉換為一個功能相同且具有“三個隱藏層”的淺層網(wǎng)絡。并提供了一個找到對應淺層網(wǎng)絡權重的算法,提高神經(jīng)網(wǎng)絡的全局可解釋性。

簡單來說就是,通過劃分輸入空間,使用線性函數(shù)對每個分區(qū)進行建模,來實現(xiàn)深層網(wǎng)絡淺化。

4ed5791e-18b4-11ee-962d-dac502259ad0.png

具體分為這三步。

4f1b78ba-18b4-11ee-962d-dac502259ad0.png

首先,需要構建一個將線性模型和半空間編碼的第一層,通過使用一個矩陣來表示半空間條件,其中每個行向量表示一個半空間的線性方程。

然后,構建第二層,該層根據(jù)輸入的所屬區(qū)域決定哪些邊界是活躍的。

最后,構建第三層,通過將輸入與每個線性模型相乘并使用指示函數(shù)來選擇正確的模型。

基于此,每一個深度ReLU網(wǎng)絡都可以被轉換為一個功能上相同的三層網(wǎng)絡,其權重值在擴展實數(shù)中。

當然要完成淺化,還需要一些咒(suan)語(fa)。

根據(jù)論文,使用算法時只需找到H、c、α、β這些參數(shù),并知道每個區(qū)域所需的半空間就可以,主要分三步。

首先,識別可行的模式集,對于每個可行模式,計算全局線性規(guī)劃的參數(shù)A(l)和d(l)。

然后,確定半空間條件,將這些矩陣堆疊起來,確定每個激活模式的半空間條件。最終得到矩陣H和向量c。

最后,計算局部線性模型,根據(jù)模型的權重和激活模式,使用顯式公式,計算局部線性模型α和β。

4f8cc07e-18b4-11ee-962d-dac502259ad0.png

簡單理解,就是根據(jù)已訓練好的網(wǎng)絡,通過啟發(fā)式搜索在可能的神經(jīng)元激活空間中找到合適的權重值。

通過構建淺層白盒網(wǎng)絡,能夠快速計算出每個數(shù)據(jù)點的SHAP值,大大提高數(shù)據(jù)的可解釋性。

實驗表明,通過上面算法就可以找到給定深度ReLU網(wǎng)絡對應的淺層網(wǎng)絡的顯式權重。

網(wǎng)友:實驗很酷,但也有些問題

論文很新穎的提出一個算法,可以實現(xiàn)“深轉淺”,不過該方法仍有一些缺點。

比如構建淺層網(wǎng)絡使用了無限權重,盡管這些權重可以在Python中實現(xiàn),但不能使用梯度下降進行微調(diào)。

當然,“找茬兒”這塊,怎能少得了熱心腸的網(wǎng)友。

根據(jù)論文可以發(fā)現(xiàn),如果使用團隊提供的算法,實驗過程中計算時間其實是會隨著神經(jīng)元數(shù)量增加呈指數(shù)增長。

所以就有網(wǎng)友提出疑惑:算法運行時間與神經(jīng)元數(shù)量成指數(shù)關系,12個神經(jīng)元需要近10分鐘,那計算一個普通大小的DNN所需時間豈不是長了去了……

網(wǎng)友指出:假設單層神經(jīng)網(wǎng)絡可以計算任何函數(shù),那么對于任何神經(jīng)網(wǎng)絡來說,這不是都成立嗎?

對于這個研究,也有網(wǎng)友犀利表示:這就是個「普遍逼近定理」,沒什么大驚小怪的。

不過無論網(wǎng)友怎么說,這篇論文仍然有一些出彩點。

比如,通過這個方式得到的淺層網(wǎng)絡是透明的,可以用來生成模型行為的解釋。

此外還提供了用于復現(xiàn)實驗的代碼,供其他研究人員使用來探索和實驗。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標題:只要你用ReLU,就是“淺度學習”:任意ReLU神經(jīng)網(wǎng)絡都有等效3層網(wǎng)絡

文章出處:【微信號:CVSCHOOL,微信公眾號:OpenCV學堂】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    利用深度循環(huán)神經(jīng)網(wǎng)絡對心電圖降噪

    一個是它們由堆疊在一起的多個 (> 2) 層組成 - 這 種方法也稱為深度學習。這種深層架構雖然比典型 的\"淺層\"神經(jīng)網(wǎng)絡需要更多的計算能力,但事實證明,它們在各種
    發(fā)表于 05-15 14:42

    輕量級深度學習網(wǎng)絡是什么

    輕量級深度學習網(wǎng)絡概覽
    發(fā)表于 04-23 14:53

    卷積神經(jīng)網(wǎng)絡深度卷積網(wǎng)絡:實例探究及學習總結

    深度學習工程師-吳恩達》03卷積神經(jīng)網(wǎng)絡深度卷積網(wǎng)絡:實例探究 學習總結
    發(fā)表于 05-22 17:15

    什么是深度殘差收縮網(wǎng)絡

       深度殘差收縮網(wǎng)絡深度殘差網(wǎng)絡的一種新的升級版本,其實是深度殘差網(wǎng)絡、注意力機制(參照Sq
    發(fā)表于 11-26 06:33

    深度神經(jīng)網(wǎng)絡是什么

    多層感知機 深度神經(jīng)網(wǎng)絡in collaboration with Hsu Chung Chuan, Lin Min Htoo, and Quah Jia Yong. 與許忠傳,林敏濤和華佳勇合作
    發(fā)表于 07-12 06:35

    深度ReLU網(wǎng)絡的訓練動態(tài)過程及其對泛化能力的影響

    基于這個框架,我們試圖用統(tǒng)一的觀點來解釋這些令人費解的經(jīng)驗現(xiàn)象。本文使用師生設置,其中給過度參數(shù)化的深度學生ReLU網(wǎng)絡的標簽,是具有相同深度和未知權重的固定教師
    的頭像 發(fā)表于 06-15 10:48 ?3596次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>ReLU</b><b class='flag-5'>網(wǎng)絡</b>的訓練動態(tài)過程及其對泛化能力的影響

    一種基于深度學習的地下淺層震源定位方法

    針對地下能量場聚焦模型中能量聚焦點無法有效識別的冋題,在深度學習的基礎上,提出一種地下淺層震源定位方法。利用逆時振幅疊加的方法將傳感器陣列獲取的震動數(shù)據(jù)逆時重建為三維能量場圖像樣本序列,并將其作為
    發(fā)表于 03-22 15:58 ?10次下載
    一種基于<b class='flag-5'>深度</b>學習的地下<b class='flag-5'>淺層</b>震源定位方法

    一種融合深度淺層特征的多視覺癲癇檢測算法

    。為了獲得更妤的癲癇檢測效果,提岀了一種融合深度淺層特征的多視角癲癇檢測算法該算法首先使用FFT和WPD來獲取EEG信號頻域和時頻域的淺層特征;然后使用CNN網(wǎng)絡學習得到頻域和時頻域
    發(fā)表于 04-07 10:58 ?8次下載
    一種融合<b class='flag-5'>深度</b>和<b class='flag-5'>淺層</b>特征的多視覺癲癇檢測算法

    基于無監(jiān)督淺層神經(jīng)網(wǎng)絡聯(lián)合學習的表示方法

    隨著神經(jīng)網(wǎng)絡技術的快速發(fā)展,面向復雜網(wǎng)絡數(shù)據(jù)的網(wǎng)絡表示學習方法受到越來越多的關注,其旨在學習網(wǎng)絡中節(jié)點的低維度潛在表示,并將學習到的特征表示有效應用于基于圖的各種分析任務。典型的
    發(fā)表于 04-23 11:22 ?11次下載
    基于無監(jiān)督<b class='flag-5'>淺層</b>神經(jīng)<b class='flag-5'>網(wǎng)絡</b>聯(lián)合學習的表示方法

    改進的多尺度深度網(wǎng)絡手勢識別模型

    基于傳統(tǒng)的淺層學習網(wǎng)絡由于過度依賴于人工選擇手勢特征,因此不能實時適應復雜多變的自然場景。在卷積神經(jīng)網(wǎng)絡架構的基礎上,提岀了一種改進的多尺度深度網(wǎng)絡
    發(fā)表于 05-29 14:44 ?8次下載

    基于改進郊狼優(yōu)化算法的淺層神經(jīng)網(wǎng)絡進化

    基于改進郊狼優(yōu)化算法的淺層神經(jīng)網(wǎng)絡進化
    發(fā)表于 06-24 15:40 ?15次下載

    Dynamic ReLU:根據(jù)輸入動態(tài)確定的ReLU

    這是我最近才看到的一篇論文,它提出了動態(tài)ReLU (Dynamic ReLU, DY-ReLU),可以將全局上下文編碼為超函數(shù),并相應地調(diào)整分段線性激活函數(shù)。
    的頭像 發(fā)表于 09-01 17:28 ?933次閱讀
    Dynamic <b class='flag-5'>ReLU</b>:根據(jù)輸入動態(tài)確定的<b class='flag-5'>ReLU</b>

    淺析深度神經(jīng)網(wǎng)絡壓縮與加速技術

    深度神經(jīng)網(wǎng)絡深度學習的一種框架,它是一種具備至少一個隱層的神經(jīng)網(wǎng)絡。與淺層神經(jīng)網(wǎng)絡類似
    的頭像 發(fā)表于 10-11 09:14 ?1181次閱讀
    淺析<b class='flag-5'>深度</b>神經(jīng)<b class='flag-5'>網(wǎng)絡</b>壓縮與加速技術

    深度神經(jīng)網(wǎng)絡模型有哪些

    模型: 多層感知器(Multilayer Perceptron,MLP): 多層感知器是最基本的深度神經(jīng)網(wǎng)絡模型,由多個全連接層組成。每個隱藏層的神經(jīng)元數(shù)量可以不同,通常使用激活函數(shù)如ReLU
    的頭像 發(fā)表于 07-02 10:00 ?2475次閱讀

    殘差網(wǎng)絡深度神經(jīng)網(wǎng)絡

    殘差網(wǎng)絡(Residual Network,通常簡稱為ResNet) 是深度神經(jīng)網(wǎng)絡的一種 ,其獨特的結構設計在解決深層網(wǎng)絡訓練中的梯度消失和梯度爆炸問題上取得了顯著的突破,并因此成為
    的頭像 發(fā)表于 07-11 18:13 ?1615次閱讀