一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一款采用單位元精度的深度學習推論(inference)芯片原型

dKBf_eetop_1 ? 來源:未知 ? 作者:李倩 ? 2018-05-31 17:18 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

比利時研究機構(gòu)Imec在近日舉行的年度技術(shù)論壇(ITF BELGIUM 2018)上透露,該機構(gòu)正在打造一款采用單位元精度的深度學習推論(inference)芯片原型;Imec并期望在明年收集采用創(chuàng)新資料型態(tài)與架構(gòu)──采用存儲器內(nèi)處理器(processor-in-memory,PIM),或是Analog存儲器結(jié)構(gòu)(analog memory fabric)──的客戶端裝置有效性資料。

學術(shù)界已經(jīng)研究PIM架構(gòu)數(shù)十年,而該架構(gòu)越來越受到資料密集的機器演算法歡迎,例如新創(chuàng)公司Mythic以及IBM Research都有相關(guān)開發(fā)成果。許多學術(shù)研究機構(gòu)正在實驗1~4位元的資料型別(data type),以減輕深度學習所需的沉重存儲器需求;到目前為止,包括Arm等公司的AI加速器商用芯片設(shè)計都集中在8位元或更大容量的資料型別,部分原因是編程工具例如Google的TensorFlow缺乏對較小資料型別的支援。

Imec擁有在一家晶圓代工廠制作的40nm制程加速器邏輯部份,而現(xiàn)在是要在自家晶圓廠添加一個MRAM層;該機構(gòu)利用SRAM模擬此設(shè)計的性能,并且評估5nm節(jié)點的設(shè)計規(guī)則。此研究是Imec與至少兩家匿名IDM業(yè)者伙伴合作、仍在開發(fā)階段的專案,從近兩年前展開,很快制作了采用某種電阻式存儲器(ReRAM)的65nmPIM設(shè)計原型。

該65nm芯片并非鎖定深度學習演算法,雖然Imec展示了利用它啟動一段迷人的電腦合成音樂;其學習模式是利用了根據(jù)以音樂形式呈現(xiàn)、從感測器所串流之資料的時間序列分析(time-series analysis)。而40nm低功耗神經(jīng)網(wǎng)路加速器(Low-Energy Neural Network Accelerator,LENNA)則會鎖定深度學習,在相對較小型的MRAM單元中運算與儲存二進位權(quán)重。

Imec技術(shù)團隊的杰出成員Diederik Verkest接受EE Times采訪時表示:「我們的任務(wù)是定義出我們應(yīng)該利用新興存儲器為機器學習開發(fā)什么樣的半導體技術(shù)──或許我們會需要制程上的調(diào)整,」以取得最佳化結(jié)果。該機構(gòu)半導體技術(shù)與系統(tǒng)部門執(zhí)行副總裁An Steegen則表示:「AI會是制程技術(shù)藍圖演化的推手,因此Imec會在AI (以及PIM架構(gòu))方面下很多功夫──這方面的工作成果將會非常重要?!?/p>

Imec聲稱其LENNA芯片在推論任務(wù)上的表現(xiàn)將超越現(xiàn)有的CPUGPU

確實,如來自英國的新創(chuàng)公司Graphcore執(zhí)行長Nigel Toon所言,AI標志著「運算技術(shù)的根本性轉(zhuǎn)變」;該公司將于今年稍晚推出首款芯片。Toon在Imec年度技術(shù)論壇上發(fā)表專題演說時表示:「今日的硬體限制了我們,我們需要某種更靈活的方案…我們想看到能根據(jù)經(jīng)驗調(diào)整的(神經(jīng)網(wǎng)路)模型;」他舉例指出,兩年前Google實習生總共花了25萬美元電費,只為了在該公司采用傳統(tǒng)x86處理器或Nvidia GPU的資料中心嘗試最佳化神經(jīng)網(wǎng)路模型。

實現(xiàn)復雜的折衷平衡

Imec希望LENNA能在關(guān)于PIM或Analog存儲器架構(gòu)能比需要存取外部存儲器的傳統(tǒng)架構(gòu)節(jié)省多少能量方面提供經(jīng)驗;此外該機構(gòu)的另一個目標,是量化采用二進制方案在精確度、成本與處理量方面的折衷(tradeoff)。

加速器芯片通常能在一些熱門的測試上提供約90%的精確度,例如ImageNet競賽;Verkest表示,單位元資料型別目前有10%左右的精度削減,「但如果你調(diào)整你的神經(jīng)網(wǎng)路,可以達到最高85%~87%的精確度。」他原本負責督導Imec的邏輯制程微縮技術(shù)藍圖,在Apple挖腳該機構(gòu)的第一個AI專案經(jīng)理之后,又兼管AI專案。

Verkest表示,理論上Analog存儲器單元應(yīng)該能以一系列數(shù)值來儲存權(quán)重(weights),但是「那些存儲器元件的變異性有很多需要考量之處;」他指出,Imec的開發(fā)專案將嘗試找出能提供最佳化精度、處理量與可靠度之間最佳化平衡的精度水準。

而Toon則認為聚焦于資料型別是被誤導了:「低精度并沒有某些人想得那么嚴重,存儲器存取是我們必須修正之處;」他并未詳細介紹Graphcore的解決方案,但聲稱該公司技術(shù)可提供比目前采用HBM2存儲器的最佳GPU高40倍的存儲器頻寬。

在芯片架構(gòu)方面,Imec的研究人員還未決定他們是要設(shè)計PIM或采用Analog存儲器結(jié)構(gòu);后者比較像是一種Analog SoC,計算是在Analog區(qū)塊處理,可因此減少或免除數(shù)位-Analog轉(zhuǎn)換。不同種類的神經(jīng)網(wǎng)路會有更適合的不同架構(gòu),例如卷積神經(jīng)網(wǎng)路(CNN)會儲存與重復使用權(quán)重,通常能以傳統(tǒng)GPU妥善運作;歸遞神經(jīng)網(wǎng)路(RNN)以及長短期記憶模型(long short-term memories,LSTMs)則傾向于在使用過后就拋棄權(quán)重,因此更適合運算式存儲器結(jié)構(gòu)

Imec可能會以存儲器結(jié)構(gòu)來打造LENNA,讓運算留在Analog功能區(qū)塊

新的平行架構(gòu)非常難編程,因此大多數(shù)供應(yīng)商正在嘗試建立在TensorFlow等現(xiàn)有架構(gòu)中攝取程式碼的途徑。而Graphcore則是打造了一種名為Poplar的軟體層,旨在以C++Python語言來完成這項工作;Toon表示:「我們把在處理器中映射圖形(graphs)的復雜性推到編譯器(也就是扮演該角色的Poplar)。」

Graphcore的客戶很快就會發(fā)現(xiàn)該程序會有多簡單或是多困難;這家新創(chuàng)公司預計在年中將第一款產(chǎn)品出貨給一線大客戶,預期他們會在今年底采用該款芯片執(zhí)行大型云端供應(yīng)商的服務(wù)。Toon聲稱,其加速器芯片將能把CNN的速度提升五至十倍,同時間采用RNN或LSTM的更復雜模型則能看到100倍的效能提升。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 存儲器
    +關(guān)注

    關(guān)注

    38

    文章

    7653

    瀏覽量

    167407
  • 加速器
    +關(guān)注

    關(guān)注

    2

    文章

    827

    瀏覽量

    39121
  • AI芯片
    +關(guān)注

    關(guān)注

    17

    文章

    1983

    瀏覽量

    35914

原文標題:Imec等多家公司正力促AI芯片設(shè)計最佳化

文章出處:【微信號:eetop-1,微信公眾號:EETOP】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    Tractica:預計2025年深度學習芯片銷量達到29億單位

    Tractica預測,AI市場的這種增長和演變將推動深度學習芯片組的出貨量從2018年的1.649億增長到2025年的29億單位以上。屆時,深度
    的頭像 發(fā)表于 06-09 23:39 ?7714次閱讀

    一款用于無線音箱的電源芯片?

    `面對生活中的壓力,曲優(yōu)美的音樂,總會讓人舒緩身心,忘卻煩惱。無線音箱的快捷方便,深受人們青睞。近期銀聯(lián)寶公司推出一款5V1A的開關(guān)電源芯片TB5806,專門適用于無線音箱方面。有效縮短了其充電
    發(fā)表于 10-10 10:14

    一款新的化學傳感器原型

    一款新的化學傳感器原型能夠在距離100英尺以外的地方檢測到“指紋痕量”的化學物質(zhì)和其它物質(zhì),其開發(fā)者正在努力將其尺寸縮小到鞋盒大小。
    發(fā)表于 08-19 06:05

    一款采用TL494芯片的開關(guān)電源電路分析

    一款采用TL494芯片的開關(guān)電源電路分析
    發(fā)表于 04-26 06:23

    如何挑選一款不錯的高精度授時模塊呢?

    如何挑選一款不錯的高精度授時模塊呢?
    發(fā)表于 05-17 07:04

    一款精度降壓型大功率 LED 恒流驅(qū)動芯片

    `AP5161 寬電壓 LED 降壓型恒流芯片概述AP5161 是一款精度降壓型大功率LED 恒流驅(qū)動芯片。適用于輸入電壓 100V以內(nèi)的大功率 LED 恒流驅(qū)動電源。專利的高端電流
    發(fā)表于 07-06 10:20

    一款精度降壓型大功率 LED 恒流驅(qū)動芯片

    `AP5161 寬電壓 LED 降壓型恒流芯片概述AP5161 是一款精度降壓型大功率LED 恒流驅(qū)動芯片。適用于輸入電壓 100V以內(nèi)的大功率 LED 恒流驅(qū)動電源。專利的高端電流
    發(fā)表于 07-14 17:47

    怎么快速設(shè)計一款智能溫控器產(chǎn)品原型

    我主要從開發(fā)角度講講怎么快速設(shè)計一款智能溫控器產(chǎn)品原型吧。溫濕度傳感器作為基礎(chǔ)傳感類別,在智能家居領(lǐng)域應(yīng)用廣泛。通過溫濕度傳感器采集溫度和濕度,可以實現(xiàn)多樣化的智能場景聯(lián)動。比如在炎熱的夏季,溫濕度
    發(fā)表于 11-04 08:29

    如何開發(fā)一款自己的App

    新手些建議。、誤區(qū)在講如何開發(fā)一款app之前,先說下定要避免的些誤區(qū)。借鑒與copy表面與原理效果與
    發(fā)表于 12-17 06:10

    什么是深度學習?使用FPGA進行深度學習的好處?

    延遲,這對深度學習推理也很有效。上述圖像識別的深度學習有望應(yīng)用于自動駕駛等對精度要求較高的系統(tǒng)中。然而,由于它也是
    發(fā)表于 02-17 16:56

    拆解深度學習生態(tài)系的五個層級

    淺談深度學習的架構(gòu),主要可分為訓練(Training)與推論(Inference)兩個階段。簡單來說,就是訓練機器學習,以及讓機器展現(xiàn)
    發(fā)表于 02-09 08:48 ?3173次閱讀

    IBM研制可兼顧高精度學習和低精度推理的深度學習芯片

    深度學習領(lǐng)域仍在不斷發(fā)展,特別地,專家們認識到如果芯片能夠使用低精度的計算方式得出近似答案,神經(jīng)網(wǎng)絡(luò)就可以用很少的資源完成大量的計算。
    的頭像 發(fā)表于 07-10 08:56 ?2547次閱讀

    亞馬遜推出了一款名為Inferentia的新型專用機器學習芯片

    據(jù)報道,在拉斯維加斯舉行的AWS re:Invent上,亞馬遜宣布了一款名為Inferentia的新型專用機器學習芯片
    發(fā)表于 11-29 14:19 ?1919次閱讀

    Socionext成功開發(fā)了一款集成有量化深度神經(jīng)網(wǎng)絡(luò)技術(shù)的原型芯片

    為提高邊緣計算處理器AI處理性能并減少系統(tǒng)功耗,Socionext成功開發(fā)了一款集成有量化深度神經(jīng)網(wǎng)絡(luò)(DNN)技術(shù)的原型芯片,通過“YOLOv3”它能以不到5W的低功耗及30fps的
    的頭像 發(fā)表于 11-04 16:27 ?1697次閱讀

    傳蘋果正在測試一款完全沒有“劉?!钡膇Phone原型

    13 的原型看起來很像 iPhone 12,但現(xiàn)在另位爆料者聲稱,蘋果正在測試一款完全沒有“劉海”的原型機。 大量生產(chǎn)高端設(shè)備的公司在決定批量生產(chǎn)
    的頭像 發(fā)表于 01-29 16:31 ?1724次閱讀