一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

華為降低憶阻器對(duì)神經(jīng)網(wǎng)絡(luò)的影響專利

汽車玩家 ? 來源:愛集微 ? 作者:嘉德IPR ? 2020-04-13 15:51 ? 次閱讀

華為申請(qǐng)的此項(xiàng)專利,能夠在保證神經(jīng)網(wǎng)絡(luò)精度的前提下,壓縮網(wǎng)絡(luò)模型,同時(shí)還能極大地減小了憶阻器器件噪音對(duì)神經(jīng)網(wǎng)絡(luò)準(zhǔn)確性的影響。

集微網(wǎng)消息,憶阻器全稱記憶電阻,即表示具有記憶能力的電阻,被認(rèn)為是能夠突破摩爾定律的新方向。有數(shù)據(jù)統(tǒng)計(jì)稱,一個(gè)憶阻器的工作量相當(dāng)于一枚CPU芯片中十幾個(gè)晶體管共同產(chǎn)生的效用,而國(guó)內(nèi)巨頭華為公司也開始“低調(diào)”研發(fā)。

近年來,神經(jīng)網(wǎng)絡(luò)(neural network,NN)計(jì)算取得了突破性進(jìn)展,在圖像識(shí)別、語言識(shí)別、自然語言處理等諸多領(lǐng)域均取得了很高的準(zhǔn)確率。然而神經(jīng)網(wǎng)絡(luò)需要海量計(jì)算資源,傳統(tǒng)的通用處理器已經(jīng)很難滿足深度學(xué)習(xí)的計(jì)算需求,設(shè)計(jì)專用芯片已經(jīng)成為了一個(gè)重要的發(fā)展方向。憶阻器具有高密度、非易失、低功耗、存算合一、易于3D等優(yōu)點(diǎn),為神經(jīng)網(wǎng)絡(luò)芯片設(shè)計(jì)提供了一種高效的解決方案。憶阻器陣列作為神經(jīng)網(wǎng)絡(luò)加速芯片,以加速矩陣乘法運(yùn)算為主要的設(shè)計(jì)目標(biāo),整個(gè)過程在模擬電路下實(shí)現(xiàn),具有速度快,面積小的優(yōu)點(diǎn)。

但是,憶阻器器件在實(shí)際應(yīng)用中,存在噪音的問題,即設(shè)置的憶阻器電導(dǎo)值并不精確的等于所需要的值,而是落在期望值附近的一個(gè)分布中。如何降低憶阻器器件噪聲對(duì)神經(jīng)網(wǎng)絡(luò)的準(zhǔn)確性的影響,是亟待解決的問題。

為此,華為申請(qǐng)了一項(xiàng)名為“一種神經(jīng)網(wǎng)絡(luò)訓(xùn)練方法及裝置”的發(fā)明專利(申請(qǐng)?zhí)枺?01810702883 .9),申請(qǐng)人為華為技術(shù)有限公司。

圖1 神經(jīng)網(wǎng)絡(luò)示意圖

神經(jīng)網(wǎng)絡(luò)的建模通常以若干神經(jīng)元為一層,層與層之間相互連接來構(gòu)建,如圖1所示,是一種鏈狀的神經(jīng)網(wǎng)絡(luò)示意圖。其中圖1中每一個(gè)圓表示一個(gè)神經(jīng)元,每一個(gè)箭頭表示神經(jīng)元之間的連接,每個(gè)連接均有權(quán)重。

在神經(jīng)網(wǎng)絡(luò)的應(yīng)用中,矩陣向量乘運(yùn)算是常見的操作,可以利用憶阻器交叉開關(guān)陣列具有的存儲(chǔ)和計(jì)算在同一個(gè)物理位置的特性,用憶阻器交叉開關(guān)陣列來進(jìn)行矩陣向量乘運(yùn)算來提高神經(jīng)網(wǎng)絡(luò)的計(jì)算效率。

華為降低憶阻器對(duì)神經(jīng)網(wǎng)絡(luò)的影響專利

圖2 憶阻器開關(guān)陣列

本專利提出的神經(jīng)網(wǎng)絡(luò)訓(xùn)練方法可以應(yīng)用于如圖2所示的憶阻器開關(guān)陣列,如圖2所示,輸入向量為不同的電壓值V0-Vn,可以表示為向量V,經(jīng)過憶阻器交叉開關(guān)陣列計(jì)算后,輸出為新的電壓值V '0-V 'm,可以表示為向量V '。其中,V '=VGRs,向量Rs包括元素 rs0, rs1,…, rsm其中rsj表示第j列的接地電阻值。

實(shí)際應(yīng)用中,憶阻器器件的噪音會(huì)給基于憶阻器的神經(jīng)網(wǎng)絡(luò)的表達(dá)能力帶來負(fù)面影響,為了消除噪音對(duì)于實(shí)際神經(jīng)網(wǎng)絡(luò)性能的影響,可以在神經(jīng)網(wǎng)絡(luò)訓(xùn)練時(shí)引入噪音,通過將底層器件噪音暴露給軟件訓(xùn)練層面,來抵消一部分硬件層面的噪音所帶來的精度影響。

華為降低憶阻器對(duì)神經(jīng)網(wǎng)絡(luò)的影響專利

圖3 神經(jīng)網(wǎng)絡(luò)訓(xùn)練方法示意圖

該專利中提出的可用于圖1、2的神經(jīng)網(wǎng)絡(luò)訓(xùn)練方法示意圖如上所示,該訓(xùn)練方法主要包括如下幾個(gè)步驟:

首先,將第一權(quán)重矩陣中絕對(duì)值小于或者等于預(yù)設(shè)門限的元素進(jìn)行剪枝操作獲取第二權(quán)重矩陣。其中,第一權(quán)重矩陣為預(yù)設(shè)權(quán)重矩陣,可以將神經(jīng)網(wǎng)絡(luò)中需要進(jìn)行訓(xùn)練的權(quán)重矩陣設(shè)置為預(yù)設(shè)權(quán)重矩陣。然后為第二權(quán)重矩陣的每個(gè)元素附加一個(gè)噪音,該噪音用于模擬憶阻器器件噪音,以此獲得第三權(quán)重矩陣。接著,根據(jù)第三權(quán)重矩陣進(jìn)行前向傳播,并將相應(yīng)的結(jié)果與目標(biāo)值進(jìn)行比較,獲得損失值。最后再將損失值和第一權(quán)重矩陣進(jìn)行反向傳播以獲取目標(biāo)權(quán)重矩陣。

華為申請(qǐng)的此項(xiàng)專利,能夠在保證神經(jīng)網(wǎng)絡(luò)精度的前提下,壓縮網(wǎng)絡(luò)模型,同時(shí)還能極大地減小了憶阻器器件噪音對(duì)神經(jīng)網(wǎng)絡(luò)準(zhǔn)確性的影響。

雖然憶阻器前景較好,但國(guó)內(nèi)市場(chǎng)進(jìn)行憶阻器芯片研發(fā)的企業(yè)較少,憶阻器的大部分技術(shù)仍停留在實(shí)驗(yàn)室階段,而作為國(guó)內(nèi)科技“領(lǐng)頭羊”的華為公司也開始展開阻器的研究,可謂給其他企業(yè)吃了一顆“定心丸”,勢(shì)必會(huì)引起國(guó)內(nèi)憶阻器行業(yè)的研發(fā)浪潮。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 華為
    +關(guān)注

    關(guān)注

    216

    文章

    34927

    瀏覽量

    254690
  • 憶阻器
    +關(guān)注

    關(guān)注

    8

    文章

    75

    瀏覽量

    20236
收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的比較

    多層。 每一層都由若干個(gè)神經(jīng)元構(gòu)成,神經(jīng)元之間通過權(quán)重連接。信號(hào)在神經(jīng)網(wǎng)絡(luò)中是前向傳播的,而誤差是反向傳播的。 卷積神經(jīng)網(wǎng)絡(luò)(CNN) : CNN主要由卷積層、池化層和全連接層組成。
    的頭像 發(fā)表于 02-12 15:53 ?395次閱讀

    人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法

    在上一篇文章中,我們介紹了傳統(tǒng)機(jī)器學(xué)習(xí)的基礎(chǔ)知識(shí)和多種算法。在本文中,我們會(huì)介紹人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法,供各位老師選擇。 01 人工神經(jīng)網(wǎng)絡(luò) ? 人工神經(jīng)網(wǎng)絡(luò)模型之所
    的頭像 發(fā)表于 01-09 10:24 ?851次閱讀
    人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的原理和多種<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>架構(gòu)方法

    自旋:最像大腦的存儲(chǔ)

    ? 一種名為“自旋”的新型神經(jīng)形態(tài)元件模仿人類大腦的節(jié)能運(yùn)作,將AI應(yīng)用程序的功耗降低到傳統(tǒng)設(shè)備的1/100。TDK與法國(guó)研究機(jī)構(gòu)CE
    的頭像 發(fā)表于 12-07 10:08 ?457次閱讀

    吉時(shí)利源表軟件在測(cè)試中的應(yīng)用

    在現(xiàn)代電子技術(shù)的發(fā)展中,作為一種新型的非線性元件,因其在存儲(chǔ)神經(jīng)網(wǎng)絡(luò)和模擬計(jì)算等領(lǐng)域的廣泛應(yīng)用而備受關(guān)注。為了有效地測(cè)試和評(píng)估
    的頭像 發(fā)表于 11-19 16:24 ?488次閱讀
    吉時(shí)利源表軟件在<b class='flag-5'>憶</b><b class='flag-5'>阻</b><b class='flag-5'>器</b>測(cè)試中的應(yīng)用

    卷積神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的比較

    在深度學(xué)習(xí)領(lǐng)域,神經(jīng)網(wǎng)絡(luò)模型被廣泛應(yīng)用于各種任務(wù),如圖像識(shí)別、自然語言處理和游戲智能等。其中,卷積神經(jīng)網(wǎng)絡(luò)(CNNs)和傳統(tǒng)神經(jīng)網(wǎng)絡(luò)是兩種常見的模型。 1. 結(jié)構(gòu)差異 1.1 傳統(tǒng)神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 11-15 14:53 ?1391次閱讀

    BP神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)的關(guān)系

    BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network)和卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡(jiǎn)稱CNN)是兩種在人工智能和機(jī)器學(xué)習(xí)領(lǐng)域
    的頭像 發(fā)表于 07-10 15:24 ?2097次閱讀

    BP神經(jīng)網(wǎng)絡(luò)和人工神經(jīng)網(wǎng)絡(luò)的區(qū)別

    BP神經(jīng)網(wǎng)絡(luò)和人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Networks,簡(jiǎn)稱ANNs)之間的關(guān)系與區(qū)別,是神經(jīng)網(wǎng)絡(luò)領(lǐng)域中一個(gè)基礎(chǔ)且重要的話題。本文將從定義、結(jié)構(gòu)、算法、應(yīng)用及未來發(fā)展等多個(gè)方面,詳細(xì)闡述BP
    的頭像 發(fā)表于 07-10 15:20 ?1911次閱讀

    rnn是遞歸神經(jīng)網(wǎng)絡(luò)還是循環(huán)神經(jīng)網(wǎng)絡(luò)

    RNN(Recurrent Neural Network)是循環(huán)神經(jīng)網(wǎng)絡(luò),而非遞歸神經(jīng)網(wǎng)絡(luò)。循環(huán)神經(jīng)網(wǎng)絡(luò)是一種具有時(shí)間序列特性的神經(jīng)網(wǎng)絡(luò),能夠處理序列數(shù)據(jù),具有記憶功能。以下是關(guān)于循環(huán)
    的頭像 發(fā)表于 07-05 09:52 ?868次閱讀

    遞歸神經(jīng)網(wǎng)絡(luò)是循環(huán)神經(jīng)網(wǎng)絡(luò)

    遞歸神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,簡(jiǎn)稱RNN)和循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,簡(jiǎn)稱RNN)實(shí)際上是同一個(gè)概念,只是不同的翻譯方式
    的頭像 發(fā)表于 07-04 14:54 ?1289次閱讀

    循環(huán)神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)的區(qū)別

    循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)和卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)是深度學(xué)習(xí)領(lǐng)域中兩種非常重要的神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-04 14:24 ?1810次閱讀

    深度神經(jīng)網(wǎng)絡(luò)與基本神經(jīng)網(wǎng)絡(luò)的區(qū)別

    在探討深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Networks, DNNs)與基本神經(jīng)網(wǎng)絡(luò)(通常指?jìng)鹘y(tǒng)神經(jīng)網(wǎng)絡(luò)或前向神經(jīng)網(wǎng)絡(luò))的區(qū)別時(shí),我們需要從多個(gè)維度進(jìn)行深入分析。這些維度包括
    的頭像 發(fā)表于 07-04 13:20 ?1519次閱讀

    反向傳播神經(jīng)網(wǎng)絡(luò)和bp神經(jīng)網(wǎng)絡(luò)的區(qū)別

    反向傳播神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network,簡(jiǎn)稱BP神經(jīng)網(wǎng)絡(luò))是一種多層前饋神經(jīng)網(wǎng)絡(luò),它通過反向傳播算法來調(diào)整網(wǎng)絡(luò)中的權(quán)重和偏置,以達(dá)到最小化誤差的
    的頭像 發(fā)表于 07-03 11:00 ?1067次閱讀

    bp神經(jīng)網(wǎng)絡(luò)是深度神經(jīng)網(wǎng)絡(luò)

    BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network)是一種常見的前饋神經(jīng)網(wǎng)絡(luò),它使用反向傳播算法來訓(xùn)練網(wǎng)絡(luò)。雖然BP神經(jīng)網(wǎng)絡(luò)在某些方面與深度
    的頭像 發(fā)表于 07-03 10:14 ?1186次閱讀

    bp神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)區(qū)別是什么

    BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network)和卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡(jiǎn)稱CNN)是兩種不同類型的人工神經(jīng)網(wǎng)絡(luò),它們?cè)?/div>
    的頭像 發(fā)表于 07-03 10:12 ?2205次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)和bp神經(jīng)網(wǎng)絡(luò)的區(qū)別

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,簡(jiǎn)稱CNN)和BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Networks,簡(jiǎn)稱BPNN)是兩種
    的頭像 發(fā)表于 07-02 14:24 ?5666次閱讀