一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

離散化架構(gòu)WAGE,訓(xùn)練推理合二為一

DPVg_AI_era ? 來(lái)源:未知 ? 作者:胡薇 ? 2018-05-20 11:11 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

圖 1 吳雙(左側(cè))和李國(guó)齊(右側(cè))- 被錄用文章的兩位作者

清華大學(xué)類腦計(jì)算研究中心博士生吳雙的論文被 ICLR2018 收錄并在會(huì)上做口頭報(bào)告。迄今為止,這是中國(guó)作為第一署名單位里唯一一篇被 ICLR 會(huì)議收錄的口頭報(bào)告文章。該報(bào)告主要探討如何實(shí)現(xiàn)對(duì)全離散化深度神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練和推理,便于部署到嵌入式設(shè)備中。

ICLR 是深度學(xué)習(xí)領(lǐng)域的頂會(huì),更被譽(yù)為深度學(xué)習(xí)的“無(wú)冕之王”,得到了 google, Facebook, DeepMind, Amazon,IBM 等眾多高科技公司的高度關(guān)注和參與。ICLR2018 于當(dāng)?shù)貢r(shí)間 2018 年 4 月 30 日在加拿大溫哥華會(huì)展中心召開(kāi),為期 4 天。本次大會(huì)的主席是深度學(xué)習(xí)領(lǐng)域三巨頭中的 Yoshua Bengio(蒙特利爾大學(xué))和 Yann LeCun (紐約大學(xué) & Facebook),本次大會(huì)收到一千多篇投稿文章,其中僅有 23 篇被收錄為本次會(huì)議的口頭報(bào)告文章。

吳雙同學(xué)的報(bào)告題目為 “Training and Inference with Integers in Deep Neural Networks”。

離散化架構(gòu) WAGE,訓(xùn)練推理合二為一

該報(bào)告主要探討如何實(shí)現(xiàn)對(duì)全離散化深度神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練和推理,便于部署到嵌入式設(shè)備中。

在深度學(xué)習(xí)領(lǐng)域,高精度意味著大面積、高功耗,從而導(dǎo)致高成本,這背離了嵌入式設(shè)備的需求,因此硬件加速器和神經(jīng)形態(tài)芯片往往采用低精度的硬件實(shí)現(xiàn)方式。在低精度的算法研究方面,之前的工作主要集中在對(duì)前向推理網(wǎng)絡(luò)的權(quán)重值和激活值的縮減,使之可以部署在硬件加速器和神經(jīng)形態(tài)芯片上;而網(wǎng)絡(luò)的訓(xùn)練還是借助于高精度浮點(diǎn)實(shí)現(xiàn)(GPU)。這種訓(xùn)練和推理的分離模式往往導(dǎo)致需要耗費(fèi)大量的額外精力,對(duì)訓(xùn)練好的浮點(diǎn)網(wǎng)絡(luò)進(jìn)行低精度轉(zhuǎn)換,這不僅嚴(yán)重影響了神經(jīng)網(wǎng)絡(luò)的應(yīng)用部署,更限制了在應(yīng)用端的在線改善。

為應(yīng)對(duì)這種情況,本文提出了一種聯(lián)合的離散化架構(gòu) WAGE,首次實(shí)現(xiàn)了將離散化神經(jīng)網(wǎng)絡(luò)的反向訓(xùn)練過(guò)程和前向推理合二為一。具體來(lái)說(shuō)就是將網(wǎng)絡(luò)權(quán)重、激活值、反向誤差、權(quán)重梯度用全用低精度整形數(shù)表達(dá),在網(wǎng)絡(luò)訓(xùn)練時(shí)去掉難以量化的操作及操作數(shù)(比如批歸一化等),從而實(shí)現(xiàn)整個(gè)訓(xùn)練流程全部用整數(shù)完成。

在數(shù)據(jù)集實(shí)測(cè)中,WAGE 的離散化方法能夠有效的提高測(cè)試精度。由于該方法能夠同時(shí)滿足深度學(xué)習(xí)加速器和神經(jīng)形態(tài)芯片的低功耗和反向訓(xùn)練需求,更使之具備高效地在線學(xué)習(xí)的能力,對(duì)未來(lái)多場(chǎng)景、多目標(biāo)的可遷移、可持續(xù)學(xué)習(xí)的人工智能應(yīng)用將大有裨益。

WAGE框架將訓(xùn)練和推理中的所有層中的權(quán)重( weights ,W),激活值( activations ,A),梯度( gradients ,G)和誤差( errors ,E)限制為低位整數(shù)。首先,對(duì)于操作數(shù),應(yīng)用線性映射和方向保持移位來(lái)實(shí)現(xiàn)三元權(quán)重,用于激活和梯度累加的8位整數(shù)。其次,對(duì)于操作,批歸一化由一個(gè)常數(shù)因子取代。用于微調(diào)的其他技術(shù)(如具有動(dòng)量和L2正則化的SGD優(yōu)化器)可以簡(jiǎn)化或放棄,性能的下降很小??紤]到整體雙向傳播,我們完全簡(jiǎn)化了累積比較周期的推理,并分別訓(xùn)練到具有對(duì)齊操作的低位乘法累加(MAC)周期。

所提出的框架在MNIST,CIFAR10,SVHN,ImageNet數(shù)據(jù)集上進(jìn)行評(píng)估。相對(duì)于只在推理時(shí)離散權(quán)重和激活的框架,WAGE具有可比的準(zhǔn)確性,并且可以進(jìn)一步減輕過(guò)擬合。WAGE為DNN生成純粹的雙向低精度整數(shù)數(shù)據(jù)流,可以將其用于專門(mén)硬件的訓(xùn)練和推理。我們?cè)贕itHub上發(fā)布了代碼。

圖1

圖2:WAGE的量化方法

實(shí)現(xiàn)細(xì)節(jié)

MNIST:采用LeNet-5的一個(gè)變體。WAGE中的學(xué)習(xí)率η在整個(gè)100個(gè)epochs中保持為1。我們報(bào)告了測(cè)試集上10次運(yùn)行的平均準(zhǔn)確度。

SVHN&CIFAR10:錯(cuò)誤率的評(píng)估方式與MNIST相同。

ImageNet:使用AlexNe模型在ILSVRC12數(shù)據(jù)集上評(píng)估WAGE框架。

表1:WAGE及其他方法在多個(gè)數(shù)據(jù)集上的測(cè)試或驗(yàn)證錯(cuò)誤率(%)

圖3:訓(xùn)練曲線

結(jié)論和未來(lái)工作

這項(xiàng)工作的目標(biāo)是展示在DNN中應(yīng)用低位整數(shù)訓(xùn)練和推理的潛力。與FP16相比,8-bit整數(shù)運(yùn)算不僅會(huì)降低IC設(shè)計(jì)的能耗和面積成本(約5倍,見(jiàn)Table 5),還會(huì)減少訓(xùn)練期間內(nèi)存訪問(wèn)成本和內(nèi)存大小要求,這將大大有利于具有現(xiàn)場(chǎng)學(xué)習(xí)能力的的移動(dòng)設(shè)備。這個(gè)工作中有一些沒(méi)有涉及到的點(diǎn),未來(lái)的算法開(kāi)發(fā)和硬件部署還有待改進(jìn)或解決。

表5

WAGE使DNN的純低位整數(shù)數(shù)據(jù)流進(jìn)行訓(xùn)練和推理得以實(shí)現(xiàn)。我們引入一種新的初始化方法和分層常數(shù)比例因子來(lái)取代批歸一化,這是網(wǎng)絡(luò)量化的一個(gè)難點(diǎn)。此外,還探討了誤差計(jì)算和梯度累積的位寬要求。實(shí)驗(yàn)表明,我們可以量化梯度的相對(duì)值,并且在反向傳播中丟棄大多數(shù)小值及其數(shù)量級(jí)。雖然為了穩(wěn)定收斂和最終的精度,權(quán)重更新的積累是必不可少的,但仍然可以在訓(xùn)練中進(jìn)一步減少壓縮和內(nèi)存消耗。WAGE在多個(gè)數(shù)據(jù)集實(shí)現(xiàn)了最高精度。通過(guò)微調(diào)、更有效的映射、批歸一化等量化方法,對(duì)增量工作有一定的應(yīng)用前景??偠灾?,我們提出了一個(gè)沒(méi)有浮點(diǎn)表示的框架,并展示了在基于整數(shù)的輕量級(jí)ASIC或具有現(xiàn)場(chǎng)學(xué)習(xí)能力的FPGA上實(shí)現(xiàn)離散訓(xùn)練和推理的潛力。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4814

    瀏覽量

    103639
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    4948

    瀏覽量

    131253

原文標(biāo)題:ICLR oral:清華提出離散化架構(gòu)WAGE,神經(jīng)網(wǎng)絡(luò)訓(xùn)練推理合二為一

文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    機(jī)器學(xué)習(xí)的第階段:推理

    我們之前討論過(guò),訓(xùn)練過(guò)程是機(jī)器學(xué)習(xí)的第階段,而推理則緊隨其后,機(jī)器學(xué)習(xí)的第階段。在訓(xùn)練階段
    發(fā)表于 06-28 16:03 ?6303次閱讀

    進(jìn)步解讀英偉達(dá) Blackwell 架構(gòu)、NVlink及GB200 超級(jí)芯片

    性能,加速模型的訓(xùn)練推理過(guò)程。 2. 生成式 AI 解決方案 與英偉達(dá) Grace CPU、新代網(wǎng)絡(luò)芯片等產(chǎn)品起,面向生成式 AI 共同組成完整解決方案,
    發(fā)表于 05-13 17:16

    YOLOv5類中rgb888p_size這個(gè)參數(shù)要與模型推理訓(xùn)練的尺寸致嗎?致會(huì)達(dá)到更好的效果?

    YOLOv5類中rgb888p_size這個(gè)參數(shù)要與模型推理訓(xùn)練的尺寸致嗎,致會(huì)達(dá)到更好的效果
    發(fā)表于 03-11 08:12

    如何把兩個(gè)電路合二為一?

    大家好求助 本人做了兩個(gè)arduino回路。 word 里面,左邊的是控制電機(jī)左右轉(zhuǎn)動(dòng)的。右邊是通過(guò)滑動(dòng)變阻器控制電機(jī)轉(zhuǎn)速的。 想把兩個(gè)電路合二為一。 程序上的編寫(xiě) 請(qǐng)給位給予建議
    發(fā)表于 08-23 05:55

    模擬技術(shù)與數(shù)字技術(shù)怎樣才能合二為一 電子資料

    模擬技術(shù)與數(shù)字技術(shù)怎樣才能合二為一,還是數(shù)字技術(shù)替代模擬技術(shù)?作為般應(yīng)用的話,的確可以區(qū)分開(kāi)模擬和數(shù)字系統(tǒng)。但是在尖端領(lǐng)域,你很難區(qū)分他們的。比如,高速數(shù)字電路板要考慮的敷銅阻抗和信號(hào)反射問(wèn)題。
    發(fā)表于 04-21 06:14

    如何用PyArmNN加速樹(shù)莓派上的ML推理

    NN推理引擎構(gòu)建個(gè)示例應(yīng)用程序,將圖像分類火或非火。 本指南使用Raspberry Pi 3或4設(shè)備。樹(shù)莓派設(shè)備是由Arm CPU驅(qū)動(dòng)的 霓虹燈的架構(gòu)。Neon是針對(duì)Arm處理器
    發(fā)表于 08-02 15:40

    Android和iPhone完美融合,魯大師發(fā)布魯?shù)皵?shù)據(jù)線將接口合二為一

    日前,魯大師智能硬件推出了款魯?shù)皵?shù)據(jù)線,號(hào)稱真正做到了蘋(píng)果lightning和安卓Micro接口合二為一。
    發(fā)表于 12-06 10:52 ?1575次閱讀

    天貓精靈Queen發(fā)布 款美妝鏡和AI智能音箱合二為一的新產(chǎn)品

    3月4日下午,天貓精靈官方微博宣布,正式推出新品天貓精靈Queen。從這樣的命名不難看出,天貓精靈Queen是款面對(duì)女性消費(fèi)者推出的產(chǎn)品,其將女孩子日常接觸的美妝鏡和AI智能音箱合二為一,在產(chǎn)品的創(chuàng)意上確實(shí)是別出心裁。
    發(fā)表于 03-05 16:42 ?1690次閱讀

    高通發(fā)布Wi-Fi或?qū)?G和Wi-Fi合二為一?

    高通發(fā)布多款Wi-Fi 6芯片,5G和Wi-Fi將合二為一
    的頭像 發(fā)表于 08-28 08:59 ?3895次閱讀

    汽車的電動(dòng)與智能正在合二為一 電動(dòng)車的下波“進(jìn)化”會(huì)在哪?

    汽車的電動(dòng)與智能正在合二為一,電動(dòng)的普及需要靠智能來(lái)拉動(dòng),而智能的最佳載體正是電動(dòng)
    的頭像 發(fā)表于 06-13 14:59 ?1203次閱讀

    離散與分布式:改變軍事訓(xùn)練和模擬系統(tǒng)

      增強(qiáng)現(xiàn)實(shí)和虛擬現(xiàn)實(shí)(AR/VR)等進(jìn)步正在重新定義在日益多樣的軍事訓(xùn)練場(chǎng)景中對(duì)質(zhì)量和性能的期望。這些改進(jìn)還表明,隨著系統(tǒng)工程師代“培訓(xùn)即服務(wù)”做準(zhǔn)備,系統(tǒng)設(shè)計(jì)策略需要改變哲
    的頭像 發(fā)表于 11-11 15:07 ?939次閱讀

    深度學(xué)習(xí)框架區(qū)分訓(xùn)練還是推理

    深度學(xué)習(xí)框架區(qū)分訓(xùn)練還是推理嗎 深度學(xué)習(xí)框架是個(gè)非常重要的技術(shù),它們能夠加速深度學(xué)習(xí)的開(kāi)發(fā)與部署過(guò)程。在深度學(xué)習(xí)中,我們通常需要進(jìn)行兩個(gè)關(guān)鍵的任務(wù),即訓(xùn)練
    的頭像 發(fā)表于 08-17 16:03 ?1741次閱讀

    提升銷量,理想汽車或?qū)⒘闶酆徒桓恫?b class='flag-5'>合二為一

    據(jù)了解,自4月份以來(lái),理想汽車已經(jīng)啟動(dòng)了2.0版本的矩陣式組織結(jié)構(gòu)升級(jí),對(duì)部分部門(mén)進(jìn)行了結(jié)構(gòu)性調(diào)整。其中項(xiàng)重要改變就是將零售與交付部門(mén)合二為一,進(jìn)步細(xì)化分工,其目的無(wú)疑是增加銷量。
    的頭像 發(fā)表于 06-04 14:21 ?803次閱讀

    壁仞科技支持DeepSeek-V3滿血版訓(xùn)練推理

    DeepSeek在開(kāi)源周開(kāi)源了部分關(guān)鍵模塊的代碼及推理系統(tǒng)參考架構(gòu),再次引發(fā)行業(yè)震動(dòng),但目前尚未開(kāi)源DeepSeek-V3 滿血版完整訓(xùn)練代碼。壁仞科技憑借八大自主創(chuàng)新技術(shù),實(shí)現(xiàn)
    的頭像 發(fā)表于 03-04 14:01 ?1006次閱讀

    陣列云從訓(xùn)練推理

    在云場(chǎng)景下,陣列云(分布式計(jì)算集群)從模型訓(xùn)練推理的完整技術(shù)流程可結(jié)構(gòu)化分解如下: 、訓(xùn)練階段技術(shù)實(shí)現(xiàn) 1,資源動(dòng)態(tài)編排? 基于Kubernetes集群或云廠商彈性計(jì)算服務(wù)(如AW
    的頭像 發(fā)表于 03-28 08:32 ?329次閱讀