一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

神經(jīng)網(wǎng)絡(luò)加速器架構(gòu)的優(yōu)劣分析

454398 ? 來(lái)源:AI加速微信公眾號(hào) ? 作者:AI加速微信公眾號(hào) ? 2020-11-02 17:22 ? 次閱讀

神經(jīng)網(wǎng)絡(luò)加速器基本上是一個(gè)中介拓?fù)浼軜?gòu)的神經(jīng)網(wǎng)絡(luò)加速器,其通過(guò)指令解析模塊將不同指令分發(fā)到不同的數(shù)據(jù)處理模塊。這些數(shù)據(jù)處理模塊共享片上的存儲(chǔ)。這種結(jié)構(gòu)的優(yōu)點(diǎn)有:

1) 結(jié)構(gòu)簡(jiǎn)單,控制起來(lái)容易。對(duì)應(yīng)每個(gè)數(shù)據(jù)處理模塊都對(duì)應(yīng)一個(gè)復(fù)雜指令,在進(jìn)行神經(jīng)網(wǎng)絡(luò)加速的時(shí)候,只需要根據(jù)神經(jīng)網(wǎng)絡(luò)的中的不同數(shù)據(jù)計(jì)算部分,提取出可在硬件上進(jìn)行布置的部分,根據(jù)這部分完成指令編寫。同時(shí)一個(gè)神經(jīng)網(wǎng)絡(luò)的計(jì)算流圖決定了不同類型指令之間的依賴關(guān)系。

2) 可擴(kuò)展性強(qiáng)。數(shù)據(jù)處理模塊可以任意進(jìn)行擴(kuò)展,對(duì)應(yīng)著指令集也可以任意增加。每個(gè)模塊和指令的接口以及cache的接口形式是一定的,它們之間可以通過(guò)cache來(lái)進(jìn)行數(shù)據(jù)交互。指令集和模塊的增加和減少都不會(huì)影響到整體架構(gòu)。我們只要開發(fā)出新的模塊IP以及指令就夠了。

我個(gè)人認(rèn)為,目前的架構(gòu)還存在如下缺陷:

1) 架構(gòu)不夠靈活。相對(duì)于千變?nèi)f化的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),其只能加速有限的的計(jì)算模塊。而且如果不同神經(jīng)網(wǎng)絡(luò)之間進(jìn)行切換的時(shí)候,如果這兩種神經(jīng)網(wǎng)絡(luò)差別很大,則可能造成不太好找到一個(gè)比較匹配的XRNN結(jié)構(gòu)。比如一個(gè)神經(jīng)網(wǎng)絡(luò)要用到模塊A,但是另外一個(gè)神經(jīng)網(wǎng)絡(luò)要用到模塊B,那么我們的架構(gòu)就需要將模塊A和B都加上,這樣才能適合兩種網(wǎng)絡(luò)。當(dāng)然也可以選擇不加,但是終歸是有模塊不能得到充分利用。

2) 不同數(shù)據(jù)處理模塊之間通過(guò)cache進(jìn)行數(shù)據(jù)交互,以及指令分發(fā)造成了延時(shí)。這對(duì)于一個(gè)大的神經(jīng)網(wǎng)絡(luò)來(lái)說(shuō),這些開銷占比很小,但是當(dāng)一個(gè)神經(jīng)網(wǎng)絡(luò)很小,計(jì)算復(fù)雜的時(shí)候,不同模塊之間的數(shù)據(jù)交互就會(huì)降低整體效能。

3) 介于AI芯片和GPU之間的尷尬處境。使用FPGA來(lái)進(jìn)行神經(jīng)網(wǎng)絡(luò)加速器,和GPU比不過(guò)算力,同時(shí)又不能像AI芯片那樣具有高速和充足資源的特點(diǎn)。所以針對(duì)大計(jì)算的網(wǎng)絡(luò),面對(duì)GPU我們的性能很難PK過(guò)。

4) FPGA的優(yōu)勢(shì)沒有顯現(xiàn)出來(lái)。可以和GPU等競(jìng)爭(zhēng)的優(yōu)勢(shì)在于FPGA的動(dòng)態(tài)可重配置以及流水線處理,這些是GPU等芯片不具備的。流水線可以容納更多的計(jì)算核,而且能夠減少計(jì)算核之間數(shù)據(jù)延時(shí),而可重配置的特點(diǎn)可以更好的適配千變?nèi)f化的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。這兩個(gè)優(yōu)點(diǎn)在神經(jīng)網(wǎng)絡(luò)加速器中也得到了一定的體現(xiàn),比如矩陣乘法核的大小,cache大小都是可配置的。而且不同的計(jì)算模塊之間還可以做一定的直連,也能夠降低讀寫cache帶來(lái)的延時(shí)。但是這些特點(diǎn)還并沒有得到很好的利用。

圖架構(gòu)設(shè)想:

對(duì)于神經(jīng)網(wǎng)絡(luò)加速器,我們總是渴望在FPGA上構(gòu)建一個(gè)統(tǒng)一的IP核,能夠盡力去適應(yīng)不同的神經(jīng)網(wǎng)絡(luò),能夠盡力去加速每個(gè)神經(jīng)網(wǎng)絡(luò)。于是乎,我們?cè)黾恿艘粋€(gè)個(gè)模塊IP,不斷擴(kuò)充指令集。但是這些都受到了兩個(gè)條件的制約:一個(gè)是FPGA資源的有限性,另外一個(gè)就是神經(jīng)網(wǎng)絡(luò)的千變?nèi)f化。如果我們換一種思路,不去追求一種統(tǒng)一的神經(jīng)網(wǎng)絡(luò)加速IP,而是基于FPGA可重配置特點(diǎn)構(gòu)建一種平臺(tái),在這個(gè)平臺(tái)下,可以由用戶根據(jù)需要加速的不同神經(jīng)網(wǎng)絡(luò)來(lái)自行搭建一套加速器。而我們要做的就是,建立一個(gè)IP庫(kù),庫(kù)里包含各種計(jì)算IP,比如矩陣乘法,向量加法,concat,embedding等等。整個(gè)平臺(tái)來(lái)根據(jù)網(wǎng)絡(luò)模型選擇不同IP來(lái)構(gòu)建一個(gè)神經(jīng)網(wǎng)絡(luò)加速器。

基本設(shè)想的結(jié)構(gòu)是這樣的:

硬核IP不僅僅包括在FPGA上開發(fā)出的各種計(jì)算核,還包含有CPU,因?yàn)镕PGA資源限制以及計(jì)算的復(fù)雜性,并不是所有的神經(jīng)網(wǎng)絡(luò)計(jì)算都可以在FPGA上實(shí)現(xiàn)。

軟件根據(jù)網(wǎng)絡(luò)模型,分析哪些計(jì)算可以用FPGA實(shí)現(xiàn),評(píng)估其實(shí)現(xiàn)性能,選擇最適合在FPGA上進(jìn)行加速的計(jì)算。同時(shí)需要評(píng)估FPGA資源情況,配置每個(gè)核的大小,使用資源等。然后根據(jù)神經(jīng)網(wǎng)絡(luò)計(jì)算流圖,確定不同IP核的連接關(guān)系,構(gòu)建圖。

圖結(jié)構(gòu)大致設(shè)想如下:

不同節(jié)點(diǎn)代表一個(gè)計(jì)算模塊,這些模塊之間直接通過(guò)數(shù)據(jù)流交互,不經(jīng)過(guò)共享內(nèi)存的方式,計(jì)算可以實(shí)現(xiàn)流水。節(jié)點(diǎn)控制器對(duì)每個(gè)節(jié)點(diǎn)實(shí)現(xiàn)參數(shù)配置,和數(shù)據(jù)流控制,數(shù)據(jù)流控制也很簡(jiǎn)單,只需要控制數(shù)據(jù)閘門的開關(guān),以及數(shù)據(jù)量流通的多少就行了。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • FPGA
    +關(guān)注

    關(guān)注

    1643

    文章

    21923

    瀏覽量

    612354
  • 加速器
    +關(guān)注

    關(guān)注

    2

    文章

    821

    瀏覽量

    38802
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4797

    瀏覽量

    102409
收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    PowerVR Series2NX神經(jīng)網(wǎng)絡(luò)加速器設(shè)計(jì)

    我的母親是一名護(hù)士,目前已經(jīng)退休。她是一個(gè)非常聰明的人,對(duì)自己的工作業(yè)務(wù)非常的盡職盡責(zé)。幾天前我和她說(shuō)我正在研究Imagination最新的神經(jīng)網(wǎng)絡(luò)加速器,她詫異的說(shuō):你說(shuō)的是什么意思?,當(dāng)然只有
    的頭像 發(fā)表于 06-19 18:36 ?5720次閱讀
    PowerVR Series2NX<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b><b class='flag-5'>加速器</b>設(shè)計(jì)

    張量計(jì)算在神經(jīng)網(wǎng)絡(luò)加速器中的實(shí)現(xiàn)形式

    引言 神經(jīng)網(wǎng)絡(luò)中涉及到大量的張量運(yùn)算,比如卷積,矩陣乘法,向量點(diǎn)乘,求和等。神經(jīng)網(wǎng)絡(luò)加速器就是針對(duì)張量運(yùn)算來(lái)設(shè)計(jì)的。一個(gè)神經(jīng)網(wǎng)絡(luò)加速器通常都
    的頭像 發(fā)表于 11-02 13:52 ?3155次閱讀
    張量計(jì)算在<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b><b class='flag-5'>加速器</b>中的實(shí)現(xiàn)形式

    一種基于FPGA的圖神經(jīng)網(wǎng)絡(luò)加速器解決方案

    的形式呈現(xiàn)給讀者。對(duì)圖神經(jīng)網(wǎng)絡(luò)(GNN)的介紹在宏觀層面上,GNN的架構(gòu)與傳統(tǒng)CNN有很多相似之處,諸如卷積層、池化、激活函數(shù)、機(jī)器學(xué)習(xí)處理(MLP)、全連接層(FC layer)等模塊,這些都可以
    發(fā)表于 09-25 17:20

    【書籍評(píng)測(cè)活動(dòng)NO.18】 AI加速器架構(gòu)設(shè)計(jì)與實(shí)現(xiàn)

    創(chuàng)新的芯片架構(gòu)設(shè)計(jì),這正面臨新的挑戰(zhàn)。本書從神經(jīng)網(wǎng)絡(luò)分析出發(fā),總結(jié)和提煉了AI加速器架構(gòu)設(shè)計(jì)中常見的難點(diǎn),以及解決這些難點(diǎn)的技術(shù)、方法和思
    發(fā)表于 07-28 10:50

    《 AI加速器架構(gòu)設(shè)計(jì)與實(shí)現(xiàn)》+第一章卷積神經(jīng)網(wǎng)絡(luò)觀后感

    《 AI加速器架構(gòu)設(shè)計(jì)與實(shí)現(xiàn)》+第一章卷積神經(jīng)網(wǎng)絡(luò)觀感 ? ?在本書的引言中也提到“一圖勝千言”,讀完第一章節(jié)后,對(duì)其進(jìn)行了一些歸納(如圖1),第一章對(duì)常見的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行了介紹,
    發(fā)表于 09-11 20:34

    《 AI加速器架構(gòu)設(shè)計(jì)與實(shí)現(xiàn)》+學(xué)習(xí)和一些思考

    ,如有錯(cuò)誤還望大佬們指出,我馬上改正。 目錄和進(jìn)度 目前閱讀到第一章,先更新到第一章的內(nèi)容吧 卷積神經(jīng)網(wǎng)絡(luò) 運(yùn)算子系統(tǒng)的設(shè)計(jì) 儲(chǔ)存子系統(tǒng)的設(shè)計(jì) 架構(gòu)優(yōu)化技術(shù) 安全與防護(hù) 神經(jīng)網(wǎng)絡(luò)
    發(fā)表于 09-16 11:11

    《 AI加速器架構(gòu)設(shè)計(jì)與實(shí)現(xiàn)》+第2章的閱讀概括

    。 從名字上就能看出來(lái)書里可能覆蓋的內(nèi)容是和CNN加速器有關(guān)的內(nèi)容了。 作者在前言里說(shuō)這本書主要討論Inference(推理)的過(guò)程,“主要討論神經(jīng)網(wǎng)絡(luò)硬件,尤其是芯片設(shè)計(jì)層面的內(nèi)容”。這本書的第2,3章
    發(fā)表于 09-17 16:39

    Imagination發(fā)布最新神經(jīng)網(wǎng)絡(luò)加速器

    Imagination Technologies宣布推出其面向人工智能(AI)應(yīng)用的最新神經(jīng)網(wǎng)絡(luò)加速器(NNA)架構(gòu)PowerVR Series3NX。
    的頭像 發(fā)表于 12-06 16:09 ?3603次閱讀

    多項(xiàng)第一!Imagination神經(jīng)網(wǎng)絡(luò)加速器通過(guò)AIIA DNN benchmark評(píng)估

    基于端側(cè)推斷任務(wù)深度神經(jīng)網(wǎng)絡(luò)處理基準(zhǔn)測(cè)試結(jié)果中,Imagination的神經(jīng)網(wǎng)絡(luò)加速器在多個(gè)框架測(cè)試中成績(jī)名列第一!
    的頭像 發(fā)表于 07-12 15:23 ?5415次閱讀

    嵌入式神經(jīng)網(wǎng)絡(luò)加速器的市場(chǎng)需求將持續(xù)增加

    隨著許多嵌入式系開始變得智能且自主,以人工智能(AI)神經(jīng)網(wǎng)絡(luò)為導(dǎo)向的嵌入式系統(tǒng)市場(chǎng)即將起飛,神經(jīng)網(wǎng)絡(luò)加速器大戰(zhàn)一觸發(fā)。
    發(fā)表于 11-22 11:40 ?1119次閱讀

    美信半導(dǎo)體新型神經(jīng)網(wǎng)絡(luò)加速器MAX78000 SoC

    ? ? 新型神經(jīng)網(wǎng)絡(luò)加速器 Maxim Integrated的新型MAX78000芯片,基于雙核MCU,結(jié)合了超低功耗深度神經(jīng)網(wǎng)絡(luò)加速器,為高性能人工智能 (AI) 應(yīng)用提供所需的算力
    的頭像 發(fā)表于 01-04 11:48 ?3311次閱讀

    神經(jīng)網(wǎng)絡(luò)加速器簡(jiǎn)述

    神經(jīng)網(wǎng)絡(luò)加速器基本概念。
    發(fā)表于 05-27 15:22 ?13次下載

    基于FPGA的SIMD卷積神經(jīng)網(wǎng)絡(luò)加速器

    一種基于FPGA的SIM卷積神經(jīng)網(wǎng)絡(luò)加速器架構(gòu)。以YOOV2目標(biāo)檢測(cè)算法為例,介紹了將卷積神經(jīng)網(wǎng)絡(luò)模型映射到FPGA上的完整流程;對(duì)加速器
    發(fā)表于 05-28 14:00 ?24次下載

    神經(jīng)網(wǎng)絡(luò)架構(gòu)有哪些

    神經(jīng)網(wǎng)絡(luò)架構(gòu)是機(jī)器學(xué)習(xí)領(lǐng)域中的核心組成部分,它們模仿了生物神經(jīng)網(wǎng)絡(luò)的運(yùn)作方式,通過(guò)復(fù)雜的網(wǎng)絡(luò)結(jié)構(gòu)實(shí)現(xiàn)信息的處理、存儲(chǔ)和傳遞。隨著深度學(xué)習(xí)技術(shù)的不斷發(fā)展,各種
    的頭像 發(fā)表于 07-01 14:16 ?1273次閱讀

    什么是神經(jīng)網(wǎng)絡(luò)加速器?它有哪些特點(diǎn)?

    )和圖形處理(GPU)雖然可以處理神經(jīng)網(wǎng)絡(luò)計(jì)算,但在能效比和計(jì)算密度上往往難以滿足特定應(yīng)用場(chǎng)景的需求。因此,神經(jīng)網(wǎng)絡(luò)加速器應(yīng)運(yùn)而生,它通過(guò)優(yōu)化硬件
    的頭像 發(fā)表于 07-11 10:40 ?817次閱讀