一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

AI優(yōu)化的FPGA和GPU的芯片級對比

FPGA之家 ? 來源:FPGA之家 ? 作者:FPGA之家 ? 2021-03-29 14:15 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

本部分,我們就跟隨作者一起看看Intel Stratix10 NX和Nvidia在這個領(lǐng)域的利器T4以及V100之間的對比,過程分為芯片級對比以及系統(tǒng)級對比。

本部分一起先來看看芯片級對比

首先來看下我們的GPU對手——Nvidia T4和V100分別有320個和640個張量核(專門用于AI工作負(fù)載的矩陣乘法引擎)

Nvidia Tesla T4

Nvidia Tesla V100

下面表格總結(jié)了與Stratix10 NX和這些同代工藝GPU的關(guān)鍵指標(biāo)對比。 就die尺寸來說,V100是Nvidia最大的12nm GPU,幾乎比T4大50%,而Stratix10 NX比兩種GPU都小。

36bc17bc-8ecc-11eb-8b86-12bb97331649.png

首先,文章使用GPU最擅長處理的工作負(fù)載:通用矩陣乘(GEMM)來跑GPU的benchmark(什么是GEMM請移步https://spatial-lang.org/gemm),為了測量最佳的GPU性能,對每個器件使用最新的library,這些庫不會出錯,并且分別在使用和不使用張量核的情況下測試性能。對于fp32和fp16實驗,分別使用CUDA10.0和10.2的CuBLAS庫進(jìn)行V100和T4。對于int8,我們使用CUDA10.2中的cuBLASLt庫,這樣可以比cuBLAS庫獲得更高的int8性能。文章使用Nvidia的官方(高度優(yōu)化)的cuDNN kernel來處理DL工作負(fù)載,并且分別對V100和T4使用了從cuDNN7.6.2和7.6.5。 (cuBLAS API,從cuda6.0開始;cuBLASLt API,從cuda10.1開始)

cuDNN庫不支持int8計算kernel,但它們支持將所有模型權(quán)重保存在片上內(nèi)存中。對于每個工作負(fù)載、問題大小和序列長度,文章在兩種GPU上運行了所有可能的配置組合,如精度{fp32、fp16、int8}、計算樣式{persistent、non-persistent}、張量核心設(shè)置{enable、disable}。然后,選擇最佳的性能,來和Stratix10 NX的NPU進(jìn)行比較。 這里因為是芯片級對比,所以只考慮了芯核的計算效率,不包括任何初始化、芯核啟動或主機(jī)-GPU數(shù)據(jù)傳輸開銷。

下圖給出了T4和V100 GPU上fp32、fp16和int8精度的GEMM benchmark測試結(jié)果。結(jié)果表明,相對于張量核禁用情況(藍(lán)線),啟用張量核(紅線) 可以顯著提高GPU在GEMM上的性能。

3735e1d2-8ecc-11eb-8b86-12bb97331649.png

然而,一個普遍的趨勢是,張量核雖然是為GEMM設(shè)計的,但在矩陣大小為2048或以下情況時的利用效率明顯不如峰值情況(紅色虛線)。因此要實現(xiàn)高利用率,除非工作負(fù)載中的矩陣大小非常大,而這在實際DL工作負(fù)載中并不常見。T4和V100上的張量核都不支持fp32的精度,而是在執(zhí)行乘法運算之前,將fp32數(shù)據(jù)轉(zhuǎn)換為fp16。相對于純fp16 GEMM,這種數(shù)據(jù)轉(zhuǎn)換開銷降低了張量核性能。另一個有趣的情況是,當(dāng)T4張量核在int8模式下工作時,它們需要將輸入矩陣從標(biāo)準(zhǔn)的行/列主要格式轉(zhuǎn)換為特定于張量核的布局。因此,即使在處理非常大的8192×8192矩陣時,在張量核(沒有標(biāo)記的紅線)上實現(xiàn)的int8性能還不到峰值性能的45%。

為了更好地理解這種數(shù)據(jù)轉(zhuǎn)換的開銷,文章還進(jìn)行了一個額外的實驗,在這個實驗中,對張量核進(jìn)行了特殊布局(帶有標(biāo)記的紅線)。即使不算矩陣布局變化的開銷,對于4096×4096及以下的矩陣大小,張量核利用率也小于40%,在6144×6144矩陣中利用率達(dá)到最高為72%。

下面來看看FPGA上的情況,上圖(Fig.6)的右上角那張圖比較了Stratix10 NX上的NPU性能與具有int8張量核的T4 GPU的性能。為了公平地比較,文章禁用了NPU兩個輸入矩陣其中一個的矩陣布局變換,只保留了對另一個輸入以及輸出矩陣的布局變換(因為NPU以標(biāo)準(zhǔn)格式使用和生成這些矩陣)。

雖然NPU是為矩陣向量運算而設(shè)計的,但它在GEMM工作負(fù)載上仍然實現(xiàn)了與T4相似的性能,其矩陣大小從512到3072不等(最大的矩陣可以fit進(jìn)片上BRAM)。

最后,一起看看頂級FPGA和GPU的PK結(jié)果。下圖(Fig.7)將文章在Stratix10 NX上增強(qiáng)型NPU的性能與T4和V100的最佳性能進(jìn)行比較。對于比較小的batch-3和batch-6情況,F(xiàn)PGA性能總是顯著高于兩個GPU。FPGA在batch-6(其設(shè)計為:雙核batch-3)中表現(xiàn)最好,平均性能分別是T4和V100的24.2x和11.7x。

與batch-6相比,F(xiàn)PGA在batch-3上的性能較低,因為兩個核中的一個完全空閑。然而,它仍然比T4和V100分別平均快了22.3x和9.3x。在batch size高于6時,如果batch size不能被6整除,則NPU可能不能被充分利用。例如,在batch size為8、32和256的情況下,NPU最多可以達(dá)到其batch-6性能的67%、89%和99%,而batch size為12、36和258(上圖中的虛線所示)可以達(dá)到100%的效率。在32輸入的中等batch size情況下,NX仍然比T4具有更好的性能,并且與V100性能相當(dāng)。

即使在比較大的batch size情況下,NX的性能也比T4高58%,只比die size更大(大將近一倍)的V100低30%。這些結(jié)果表明,人工智能優(yōu)化的FPGA在低batch實時推理中不僅可以實現(xiàn)比GPU好一個數(shù)量級的性能,而且可以在放寬延遲約束下的高batch推理中和GPU匹敵。上圖(Fig.7)中的右下角圖總結(jié)了不同batch size情況下NX相對于CPU的平均加速情況。

上圖(Fig.7)中的右上角圖顯示了與不同batch大小下的兩個GPU相比,NX的平均利用率。NX在batch-6中的平均利用率為37.1%,而T4和V100分別僅為1.5%和3%。GPU張量核并非直接互連,它們只能接收來自本地核內(nèi)寄存器文件的輸入。因此,每個GPU張量核都必須發(fā)送它的partial result到全局內(nèi)存中,并與其他張量核同步,以結(jié)合這些partial result。然后GPU從全局內(nèi)存中讀取組合好的矢量來執(zhí)行進(jìn)一步的操作,如激活函數(shù)(activation functions)。

較高的batch size可以攤銷這種同步延遲,但即使在batch-256情況下,T4和V100的利用率分別只有13.3%和17.8%。 另一方面,F(xiàn)PGA在架構(gòu)上也更具優(yōu)勢,其在張量塊之間有專用的用來做減法的互連, FPGA的可編程布線資源還允許將MVU tile和矢量單元級引擎級聯(lián)起來進(jìn)行直接通信,減少了像GPU中那樣必須通過內(nèi)存通信的情況。

綜上可以看到,F(xiàn)PGA依靠架構(gòu)優(yōu)勢和超高的資源利用率,在AI性能PK上對GPU形成了強(qiáng)勁挑戰(zhàn)。下一篇,我們再來一起看看從系統(tǒng)角度,F(xiàn)PGA和GPU的對比情況以及功耗方面的分析。

原文標(biāo)題:讀《超越巔峰性能:AI優(yōu)化的FPGA和GPU真實性能對比》:芯對芯

文章出處:【微信公眾號:FPGA之家】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

責(zé)任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • FPGA
    +關(guān)注

    關(guān)注

    1645

    文章

    22036

    瀏覽量

    618126
  • AI
    AI
    +關(guān)注

    關(guān)注

    88

    文章

    35065

    瀏覽量

    279388

原文標(biāo)題:讀<超越巔峰性能:AI優(yōu)化的FPGA和GPU真實性能對比>:芯對芯

文章出處:【微信號:zhuyandz,微信公眾號:FPGA之家】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    漢思新材料|芯片級底部填充膠守護(hù)你的智能清潔機(jī)器人

    (消毒作業(yè))、商場(夜間保潔)等,技術(shù)融合AI視覺與機(jī)械臂,突破立體清潔瓶頸。2024年全球家庭機(jī)型出貨量超2000萬臺,商用市場增速達(dá)19.7%。漢思芯片級底部
    的頭像 發(fā)表于 07-04 10:43 ?268次閱讀
    漢思新材料|<b class='flag-5'>芯片級</b>底部填充膠守護(hù)你的智能清潔機(jī)器人

    ESD技術(shù)文檔:芯片級ESD與系統(tǒng)ESD測試標(biāo)準(zhǔn)介紹和差異分析

    ESD技術(shù)文檔:芯片級ESD與系統(tǒng)ESD測試標(biāo)準(zhǔn)介紹和差異分析
    的頭像 發(fā)表于 05-15 14:25 ?1316次閱讀
    ESD技術(shù)文檔:<b class='flag-5'>芯片級</b>ESD與系統(tǒng)<b class='flag-5'>級</b>ESD測試標(biāo)準(zhǔn)介紹和差異分析

    提升AI訓(xùn)練性能:GPU資源優(yōu)化的12個實戰(zhàn)技巧

    在人工智能與機(jī)器學(xué)習(xí)技術(shù)迅速發(fā)展的背景下,GPU計算資源的高效利用已成為關(guān)鍵技術(shù)指標(biāo)。優(yōu)化GPU資源分配不僅能顯著提升模型訓(xùn)練速度,還能實現(xiàn)計算成本的有效控制。根據(jù)AI基礎(chǔ)設(shè)施聯(lián)盟2
    的頭像 發(fā)表于 05-06 11:17 ?497次閱讀
    提升<b class='flag-5'>AI</b>訓(xùn)練性能:<b class='flag-5'>GPU</b>資源<b class='flag-5'>優(yōu)化</b>的12個實戰(zhàn)技巧

    概倫電子芯片級HBM靜電防護(hù)分析平臺ESDi介紹

    ESDi平臺是一款先進(jìn)的芯片級ESD(靜電防護(hù))驗證平臺,為設(shè)計流程的各個階段提供定制化解決方案。該平臺包括原理圖HBM(人體模型)檢查工具ESDi-SC,芯片級HBM檢查工具ESDi,和適用于多線程仿真的
    的頭像 發(fā)表于 04-22 10:25 ?399次閱讀
    概倫電子<b class='flag-5'>芯片級</b>HBM靜電防護(hù)分析平臺ESDi介紹

    FPGA+AI王炸組合如何重塑未來世界:看看DeepSeek東方神秘力量如何預(yù)測......

    正以550萬美元的"拼多多模式",沖擊萬億市場格局。 在AI時代,FPGAAI的結(jié)合正在重塑未來的芯片生態(tài),主要體
    發(fā)表于 03-03 11:21

    當(dāng)我問DeepSeek AI爆發(fā)時代的FPGA是否重要?答案是......

    FPGA的硬件并行處理能力使其在實時性要求極高的應(yīng)用中表現(xiàn)出色,如自動駕駛、實時視頻分析等。這些場景需要快速處理大量數(shù)據(jù)并做出即時決策,FPGA能夠以極低的延遲完成任務(wù)。 ? 高能效比:與CPU和
    發(fā)表于 02-19 13:55

    ASIC和GPU的原理和優(yōu)勢

    ? 本文介紹了ASIC和GPU兩種能夠用于AI計算的半導(dǎo)體芯片各自的原理和優(yōu)勢。 ASIC和GPU是什么 ASIC和GPU,都是用于計算功能
    的頭像 發(fā)表于 01-06 13:58 ?1751次閱讀
    ASIC和<b class='flag-5'>GPU</b>的原理和優(yōu)勢

    芯片級封裝的bq24165/166/16評估模塊

    電子發(fā)燒友網(wǎng)站提供《芯片級封裝的bq24165/166/16評估模塊.pdf》資料免費下載
    發(fā)表于 12-18 14:56 ?0次下載
    <b class='flag-5'>芯片級</b>封裝的bq24165/166/16評估模塊

    行業(yè)首個芯片級游戲技術(shù),OPPO「風(fēng)馳游戲內(nèi)核」正式亮相一加游戲大會

    獨家自研芯片級游戲技術(shù)「風(fēng)馳游戲內(nèi)核」,深入芯片底層,實現(xiàn)芯片性能供給與游戲性能需求的精準(zhǔn)平衡,在功耗、溫度和畫質(zhì)三方面體驗全面提升,堪比一次芯片的自我迭代。「風(fēng)馳
    的頭像 發(fā)表于 12-13 10:20 ?669次閱讀
    行業(yè)首個<b class='flag-5'>芯片級</b>游戲技術(shù),OPPO「風(fēng)馳游戲內(nèi)核」正式亮相一加游戲大會

    一加將首發(fā)芯片級游戲技術(shù) 帶來極致手游體驗

    一加即將召開一場盛大的游戲盛會,屆時將揭曉其最新旗艦手機(jī)系列。中國區(qū)總裁李杰在采訪中透露,一加團(tuán)隊在移動游戲技術(shù)領(lǐng)域取得了重大進(jìn)展,推出了一種創(chuàng)新的“芯片級游戲優(yōu)化技術(shù)”。這項技術(shù)不僅對硬件適配
    的頭像 發(fā)表于 12-11 15:51 ?699次閱讀

    NPU與GPU的性能對比

    它們在不同應(yīng)用場景下的表現(xiàn)。 一、設(shè)計初衷與優(yōu)化方向 NPU : 專為加速AI任務(wù)而設(shè)計,包括深度學(xué)習(xí)和推理。 針對神經(jīng)網(wǎng)絡(luò)的計算模式進(jìn)行了優(yōu)化,能夠高效地執(zhí)行矩陣乘法、卷積等操作。 擁有眾多小型處理單元,配備專門的內(nèi)存體系結(jié)構(gòu)
    的頭像 發(fā)表于 11-14 15:19 ?4127次閱讀

    瑞沃微:一文詳解CSP(Chip Scale Package)芯片級封裝工藝

    在半導(dǎo)體技術(shù)的快速發(fā)展中,封裝技術(shù)作為連接芯片與外部世界的橋梁,其重要性不言而喻。CSP(Chip Scale Package),即芯片級封裝技術(shù),正是近年來備受矚目的一種先進(jìn)封裝技術(shù)。今天,請跟隨瑞沃微的腳步,一起深入了解CSP芯片級
    的頭像 發(fā)表于 11-06 10:53 ?3262次閱讀
    瑞沃微:一文詳解CSP(Chip Scale Package)<b class='flag-5'>芯片級</b>封裝工藝

    實現(xiàn)芯片級封裝的最佳熱性能

    電子發(fā)燒友網(wǎng)站提供《實現(xiàn)芯片級封裝的最佳熱性能.pdf》資料免費下載
    發(fā)表于 10-15 10:22 ?0次下載
    實現(xiàn)<b class='flag-5'>芯片級</b>封裝的最佳熱性能

    解決芯片級功率MOSFET的組裝問題

    電子發(fā)燒友網(wǎng)站提供《解決芯片級功率MOSFET的組裝問題.pdf》資料免費下載
    發(fā)表于 08-27 11:17 ?0次下載
    解決<b class='flag-5'>芯片級</b>功率MOSFET的組裝問題

    自動駕駛?cè)笾髁?b class='flag-5'>芯片架構(gòu)分析

    當(dāng)前主流的AI芯片主要分為三類,GPUFPGA、ASIC。GPU、FPGA均是前期較為成熟的
    的頭像 發(fā)表于 08-19 17:11 ?2381次閱讀
    自動駕駛?cè)笾髁?b class='flag-5'>芯片</b>架構(gòu)分析