一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

二值神經(jīng)網(wǎng)絡(luò)的介紹說(shuō)明

姚小熊27 ? 來(lái)源:人工智能實(shí)驗(yàn)室 ? 作者:人工智能實(shí)驗(yàn)室 ? 2021-01-31 09:48 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

每年都會(huì)開(kāi)發(fā)出更深的模型來(lái)執(zhí)行各種任務(wù),例如對(duì)象檢測(cè),圖像分割等,這些任務(wù)始終能夠擊敗最新模型。但是,人們?cè)絹?lái)越關(guān)注使模型更輕便,更高效,以便它們可以在邊緣設(shè)備和移動(dòng)設(shè)備上運(yùn)行。這對(duì)于彌合機(jī)器學(xué)習(xí)的研究和生產(chǎn)價(jià)值之間的差距非常重要。

減少深度神經(jīng)網(wǎng)絡(luò)的內(nèi)存和計(jì)算成本的一種方法是二值神經(jīng)網(wǎng)絡(luò)的概念。二值神經(jīng)網(wǎng)絡(luò)的概念非常簡(jiǎn)單,其中權(quán)重和激活張量的每個(gè)值都使用+1和-1表示,以便它們可以以1字節(jié)而不是全精度存儲(chǔ)(在1-中表示為0 位整數(shù))。使用以下所示的符號(hào)函數(shù)將浮點(diǎn)值轉(zhuǎn)換為二進(jìn)制值-

現(xiàn)在,使用閾值函數(shù)作為上述函數(shù)的一個(gè)主要問(wèn)題是該函數(shù)的梯度趨于為零。一種解決方案是使用直通估算器。直通估算器是一種在梯度傳遞過(guò)程中完全照原樣通過(guò)漸變而不會(huì)發(fā)生任何變化的估計(jì)器。這簡(jiǎn)化了二值神經(jīng)網(wǎng)絡(luò)中閾值函數(shù)的反向傳播機(jī)制,并顯示出很好的效果。

在梯度累積階段,將使用二進(jìn)制權(quán)重和激活來(lái)累積每一層的梯度。但是權(quán)重更新是對(duì)實(shí)值原始權(quán)重進(jìn)行的。為什么會(huì)這樣呢?讓我舉例說(shuō)明。

我們?cè)谏窠?jīng)網(wǎng)絡(luò)中有一個(gè)值為0.05的節(jié)點(diǎn)(原始參數(shù))。

通過(guò)閾值函數(shù)傳遞此值后,我們獲得的值為1(二進(jìn)制參數(shù))。

讓我們假設(shè)在二進(jìn)制參數(shù)處累積的梯度為3。我們使用直通估計(jì)器的概念將其照原樣傳遞給原始參數(shù)。

現(xiàn)在,一旦累積了漸變,我們就可以更新值。

如果我們使用二進(jìn)制值獲得新的參數(shù)值,則參數(shù)的新值將為10.1 * 3(其中0.1是學(xué)習(xí)率),即0.7。

如果我們使用原始參數(shù)值來(lái)獲取新參數(shù),則新值將為0.050.1 * 3,即-0.25。

這是可以注意到差異的地方。當(dāng)我們執(zhí)行下一個(gè)迭代時(shí),我們將再次通過(guò)二進(jìn)制閾值函數(shù)傳遞新的參數(shù)值,它們將給出不同的結(jié)果。如果我們繼續(xù)使用參數(shù)的二進(jìn)制值,則可能永遠(yuǎn)無(wú)法更改該位,因?yàn)槭冀K會(huì)根據(jù)1或-1計(jì)算損耗。

當(dāng)更新參數(shù)值時(shí),這些值將被裁剪為介于-1和1之間。主要原因是這些值只會(huì)增加/減少,否則對(duì)網(wǎng)絡(luò)沒(méi)有任何影響。需要注意的一件事是,最后一個(gè)激活層中的值未進(jìn)行二值化,而是按原樣用于分類/回歸。這些是二值神經(jīng)網(wǎng)絡(luò)的基本概念。

可以添加到權(quán)重和激活層二值化的另一個(gè)改進(jìn)是使用縮放因子來(lái)表示權(quán)重和激活。在這里,比例因子只是權(quán)重向量中所有值的平均值的絕對(duì)值。如果我們有一個(gè)2 * 2矩陣,其值[[0.2,0.2],[-0.6,-0.6]],則比例因子α將為0.2,二進(jìn)制矩陣表示為[[1,1],[-1,- 1]]。

因此,一旦權(quán)重和激活連同它們各自的縮放因子一起以二進(jìn)制形式表示,就可以使用以下公式表示。在此,I和W分別表示激活層和權(quán)重層,而激活和權(quán)重的縮放因子分別使用κ和α表示。

現(xiàn)在,作為卷積運(yùn)算基礎(chǔ)的乘積(MAC)函數(shù)是非常昂貴的運(yùn)算。現(xiàn)在,可以將其替換為XNOR + 彈出計(jì)數(shù)操作。 幾乎每個(gè)CPU都固有地執(zhí)行按位運(yùn)算,并且這些運(yùn)算的執(zhí)行速度明顯更快且成本更低。彈出計(jì)數(shù)操作只不過(guò)是檢查設(shè)置的位。下面的示例顯示了MAC操作可以由XNOR + 彈出計(jì)數(shù)操作代替。

但是二值神經(jīng)網(wǎng)絡(luò)的主要缺點(diǎn)在于,它們無(wú)法實(shí)現(xiàn)與完全精度的深層網(wǎng)絡(luò)一樣高的精度。但這一直在緩慢地變化,并且每年(與每月發(fā)表論文的數(shù)量越來(lái)越相似),隨著差距的縮小,已經(jīng)有了很多進(jìn)步。由于人們?cè)絹?lái)越關(guān)注在具有有限計(jì)算資源的設(shè)備上實(shí)施機(jī)器學(xué)習(xí)模型,因此在未來(lái)幾年中,將會(huì)在該領(lǐng)域進(jìn)行更多的研究。
責(zé)任編輯:YYX

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    神經(jīng)網(wǎng)絡(luò)專家系統(tǒng)在電機(jī)故障診斷中的應(yīng)用

    摘要:針對(duì)傳統(tǒng)專家系統(tǒng)不能進(jìn)行自學(xué)習(xí)、自適應(yīng)的問(wèn)題,本文提出了基于種經(jīng)網(wǎng)絡(luò)專家系統(tǒng)的并步電機(jī)故障診斷方法。本文將小波神經(jīng)網(wǎng)絡(luò)和專家系統(tǒng)相結(jié)合,充分發(fā)揮了者故障診斷的優(yōu)點(diǎn),很大程度上降低了對(duì)電機(jī)
    發(fā)表于 06-16 22:09

    基于FPGA搭建神經(jīng)網(wǎng)絡(luò)的步驟解析

    本文的目的是在一個(gè)神經(jīng)網(wǎng)絡(luò)已經(jīng)通過(guò)python或者M(jìn)ATLAB訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型,將訓(xùn)練好的模型的權(quán)重和偏置文件以TXT文件格式導(dǎo)出,然后通過(guò)python程序?qū)xt文件轉(zhuǎn)化為coe文件,(coe
    的頭像 發(fā)表于 06-03 15:51 ?391次閱讀
    基于FPGA搭建<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的步驟解析

    BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的比較

    BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)在多個(gè)方面存在顯著差異,以下是對(duì)兩者的比較: 一、結(jié)構(gòu)特點(diǎn) BP神經(jīng)網(wǎng)絡(luò) : BP神經(jīng)網(wǎng)絡(luò)是一種多層的前饋神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 02-12 15:53 ?659次閱讀

    BP神經(jīng)網(wǎng)絡(luò)的優(yōu)缺點(diǎn)分析

    BP神經(jīng)網(wǎng)絡(luò)(Back Propagation Neural Network)作為一種常用的機(jī)器學(xué)習(xí)模型,具有顯著的優(yōu)點(diǎn),同時(shí)也存在一些不容忽視的缺點(diǎn)。以下是對(duì)BP神經(jīng)網(wǎng)絡(luò)優(yōu)缺點(diǎn)的分析: 優(yōu)點(diǎn)
    的頭像 發(fā)表于 02-12 15:36 ?909次閱讀

    什么是BP神經(jīng)網(wǎng)絡(luò)的反向傳播算法

    神經(jīng)網(wǎng)絡(luò)(即反向傳播神經(jīng)網(wǎng)絡(luò))的核心,它建立在梯度下降法的基礎(chǔ)上,是一種適合于多層神經(jīng)元網(wǎng)絡(luò)的學(xué)習(xí)算法。該算法通過(guò)計(jì)算每層網(wǎng)絡(luò)的誤差,并將這些誤差反向傳播到前一層,從而調(diào)整權(quán)重,使得
    的頭像 發(fā)表于 02-12 15:18 ?764次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)的關(guān)系

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)之間存在著密切的關(guān)系,以下是對(duì)它們之間關(guān)系的介紹: 一、BP神經(jīng)網(wǎng)絡(luò)的基本概念 BP神經(jīng)網(wǎng)絡(luò),即反向傳播神經(jīng)網(wǎng)絡(luò)(Ba
    的頭像 發(fā)表于 02-12 15:15 ?850次閱讀

    BP神經(jīng)網(wǎng)絡(luò)的基本原理

    BP神經(jīng)網(wǎng)絡(luò)(Back Propagation Neural Network)的基本原理涉及前向傳播和反向傳播兩個(gè)核心過(guò)程。以下是關(guān)于BP神經(jīng)網(wǎng)絡(luò)基本原理的介紹: 一、網(wǎng)絡(luò)結(jié)構(gòu) BP
    的頭像 發(fā)表于 02-12 15:13 ?844次閱讀

    人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法

    在上一篇文章中,我們介紹了傳統(tǒng)機(jī)器學(xué)習(xí)的基礎(chǔ)知識(shí)和多種算法。在本文中,我們會(huì)介紹人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法,供各位老師選擇。 01 人工
    的頭像 發(fā)表于 01-09 10:24 ?1181次閱讀
    人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的原理和多種<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>架構(gòu)方法

    卷積神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的比較

    在深度學(xué)習(xí)領(lǐng)域,神經(jīng)網(wǎng)絡(luò)模型被廣泛應(yīng)用于各種任務(wù),如圖像識(shí)別、自然語(yǔ)言處理和游戲智能等。其中,卷積神經(jīng)網(wǎng)絡(luò)(CNNs)和傳統(tǒng)神經(jīng)網(wǎng)絡(luò)是兩種常見(jiàn)的模型。 1. 結(jié)構(gòu)差異 1.1 傳統(tǒng)神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 11-15 14:53 ?1863次閱讀

    RNN模型與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的區(qū)別

    神經(jīng)網(wǎng)絡(luò)是機(jī)器學(xué)習(xí)領(lǐng)域中的一種強(qiáng)大工具,它們能夠模擬人腦處理信息的方式。隨著技術(shù)的發(fā)展,神經(jīng)網(wǎng)絡(luò)的類型也在不斷增加,其中循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)和傳統(tǒng)神經(jīng)網(wǎng)絡(luò)(如前饋
    的頭像 發(fā)表于 11-15 09:42 ?1124次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)與工作機(jī)制

    的結(jié)構(gòu)與工作機(jī)制的介紹: 一、LSTM神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu) LSTM神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)主要包括以下幾個(gè)部分: 記憶單元(Memory Cell) : 記憶單元是LSTM網(wǎng)絡(luò)的核心,負(fù)責(zé)在整個(gè)序列
    的頭像 發(fā)表于 11-13 10:05 ?1628次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)的基本原理 如何實(shí)現(xiàn)LSTM神經(jīng)網(wǎng)絡(luò)

    LSTM(長(zhǎng)短期記憶)神經(jīng)網(wǎng)絡(luò)是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),它能夠?qū)W習(xí)長(zhǎng)期依賴信息。在處理序列數(shù)據(jù)時(shí),如時(shí)間序列分析、自然語(yǔ)言處理等,LSTM因其能夠有效地捕捉時(shí)間序列中的長(zhǎng)期依賴關(guān)系而受到
    的頭像 發(fā)表于 11-13 09:53 ?1570次閱讀

    Moku人工神經(jīng)網(wǎng)絡(luò)101

    Moku3.3版更新在Moku:Pro平臺(tái)新增了全新的儀器功能【神經(jīng)網(wǎng)絡(luò)】,使用戶能夠在Moku設(shè)備上部署實(shí)時(shí)機(jī)器學(xué)習(xí)算法,進(jìn)行快速、靈活的信號(hào)分析、去噪、傳感器調(diào)節(jié)校準(zhǔn)、閉環(huán)反饋等應(yīng)用。如果您
    的頭像 發(fā)表于 11-01 08:06 ?661次閱讀
    Moku人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>101

    關(guān)于卷積神經(jīng)網(wǎng)絡(luò),這些概念你厘清了么~

    神經(jīng)網(wǎng)絡(luò)的訓(xùn)練中非常有效。卷積層使用一種被稱為卷積的數(shù)學(xué)運(yùn)算來(lái)識(shí)別像素數(shù)組的模式。卷積發(fā)生在隱藏層中,如圖3所示。卷積會(huì)重復(fù)多次直至達(dá)到所需的精度水平。如果要比較的兩個(gè)輸入(本例是輸入圖像和濾波器
    發(fā)表于 10-24 13:56

    matlab 神經(jīng)網(wǎng)絡(luò) 數(shù)學(xué)建模數(shù)值分析

    matlab神經(jīng)網(wǎng)絡(luò) 數(shù)學(xué)建模數(shù)值分析 精通的可以討論下
    發(fā)表于 09-18 15:14