一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度學(xué)習(xí)的最大短板原來(lái)是它!

SSDFans ? 來(lái)源:YXQ ? 2019-06-17 09:53 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

上文用簡(jiǎn)單的小學(xué)數(shù)學(xué)算了一下Alexnet的參數(shù)說(shuō)需要的內(nèi)存空間,但對(duì)于運(yùn)行的神經(jīng)網(wǎng)絡(luò),還有一個(gè)運(yùn)行時(shí)的資源的問題。在github上的convnet-burden上有一個(gè)feature memory[1]的概念,這個(gè)和輸入的圖片的大小和運(yùn)算的batch的size 都有關(guān)。

因此,Nvida的GPU上的HBM和GDDR對(duì)于大部分神經(jīng)網(wǎng)絡(luò)的煉丹師都是非常重要,能夠在一個(gè)GPU的內(nèi)存里完成模型的運(yùn)算而不用考慮換進(jìn)換出是大有裨益的。

總體來(lái)說(shuō),這個(gè)統(tǒng)計(jì)還是很直觀的[2],就是網(wǎng)絡(luò)模型越復(fù)雜,參數(shù)的規(guī)模越大,資源的占用也就越多,對(duì)GPU的整體內(nèi)存占用也是越多。因此如何在有限的GPU上完成模型的訓(xùn)練也成了一個(gè)非常有用的技巧。

在我們考慮計(jì)算對(duì)于內(nèi)存帶寬的需求之前,我們需要復(fù)習(xí)一下作為一個(gè)神經(jīng)網(wǎng)絡(luò),每一層對(duì)于計(jì)算的需求,這個(gè)還是可以用小學(xué)數(shù)學(xué)搞定的東西。還是用標(biāo)準(zhǔn)的Alexnet為例。

對(duì)于計(jì)算來(lái)講,卷積層應(yīng)該是主要,對(duì)于Pooling來(lái)講,應(yīng)該是沒有的,對(duì)于FC來(lái)講,也是比較簡(jiǎn)單的。基本上是乘法.

Conv Layer的計(jì)算復(fù)雜度:

1. 當(dāng)前的層的圖片的width

2. 當(dāng)前的層的圖片的height

3.上一層的深度

4。當(dāng)前層的深度

5. 當(dāng)前kernel的大小

的乘積就是這一層卷積的計(jì)算復(fù)雜度。以Alexnet的conv1為例:

Conv-1:第一層的卷積有96個(gè)kernel。kernel的大小是11X11,卷積的stride是4,padding是0

當(dāng)前的輸出的是55X55,上一層的input的深度是3, 當(dāng)前的kernel是11X11,當(dāng)前的深度是96.因此

55X55X3X11X11X96=105,415,200次MAC的計(jì)算。

對(duì)于Alexnet來(lái)講,需要注意的是conv2,4 ,5三個(gè)層的計(jì)算沒有和上一層直接跨GPU,因此需要的計(jì)算規(guī)模上/2.

對(duì)于FC來(lái)講,比較粗略的計(jì)算就是 輸入和當(dāng)前層的規(guī)模的乘積。

MaxPool-3:第五層卷積的最大值,Pooling是3X3, stride是2,

FC-1:第一個(gè)全連接層,有4096個(gè)神經(jīng)元

因此FC-1 的計(jì)算就是:

6X6X256X4096=37,748,736

因此,總結(jié)一下之前的參數(shù)信息和計(jì)算量, Alexnet的圖如下:

這個(gè)通過統(tǒng)計(jì)每一層的計(jì)算的復(fù)雜度,就可以得到整個(gè)網(wǎng)絡(luò)的計(jì)算復(fù)雜度,也就是訓(xùn)練一次網(wǎng)絡(luò)需要多少的MACC資源。對(duì)于alexnet 來(lái)講就是:724,406,816 次操作。

這個(gè)時(shí)候,有一個(gè)關(guān)鍵的信息就出來(lái)了。就是芯片的能力,大家都是用TFLOPs來(lái)表示芯片的浮點(diǎn)處理能力。對(duì)于Nvida的芯片,有了TFLOPS,有個(gè)一個(gè)網(wǎng)絡(luò)需要的計(jì)算量,我們就可以很快計(jì)算出每一層計(jì)算需要的時(shí)間了。

對(duì)于Alexnet 的conv1 來(lái)講,在Nivida 最新的V100的120TFLOPs的GPU上,進(jìn)行訓(xùn)練的執(zhí)行時(shí)間差不多是105,415,200X2/(120X1,000,000,000,000), 約等于1.75us (微秒)。

對(duì)于Pooling這一層來(lái)講,因?yàn)闆]有MACC的計(jì)算量,但是因?yàn)橐狹ax Pooling,也需要大小比較的計(jì)算。因此,它的計(jì)算基本就是算是數(shù)據(jù)讀取。因此它的數(shù)據(jù)讀取是 conv-1 的55X55X96=290,440. 因此在同樣的GPU下,它的執(zhí)行時(shí)間就是 2.42ns.

好了,有了計(jì)算時(shí)間,現(xiàn)在需要來(lái)計(jì)算數(shù)據(jù)量了。對(duì)于Conv1來(lái)講,它包含了對(duì)一下數(shù)據(jù)的讀寫:

對(duì)于輸入數(shù)據(jù)的讀取 227X227X3 =154,587

對(duì)于輸出數(shù)據(jù)的寫入55x55x96=290,400

對(duì)于參數(shù)的讀取34848+96=34944

因此,就可以算出對(duì)于120TFLOP的GPU的要求:因?yàn)樵诤芏?a target="_blank">ASIC芯片中,輸入輸出可能在DDR中,但是參數(shù)可能放在SRAM中,因此我們就分開計(jì)算了。

對(duì)于輸入數(shù)據(jù)的讀取 (154,587/1.75)X1000,000X4=351.95GB/s

對(duì)于輸出數(shù)據(jù)的寫入 (290,400/1.75)X1000,000X4=661.16GB/s

對(duì)于參數(shù)的讀取 (34944 /1.75)X1,000,000X4=79.34GB/s

提個(gè)醒,我們現(xiàn)在的PC服務(wù)器上性能最高的DDR4的帶寬基本上在19GB/s左右。看到壓力了吧?,F(xiàn)在的memory連很慢的CPU都跟不上。更何況老黃家的核彈。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5308

    瀏覽量

    106342
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5561

    瀏覽量

    122783

原文標(biāo)題:芯片架構(gòu)師終于證明:深度學(xué)習(xí)的最大短板原來(lái)是它!

文章出處:【微信號(hào):SSDFans,微信公眾號(hào):SSDFans】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    如何排除深度學(xué)習(xí)工作臺(tái)上量化OpenVINO?的特定層?

    無(wú)法確定如何排除要在深度學(xué)習(xí)工作臺(tái)上量化OpenVINO?特定層
    發(fā)表于 03-06 07:31

    軍事應(yīng)用中深度學(xué)習(xí)的挑戰(zhàn)與機(jī)遇

    人工智能尤其是深度學(xué)習(xí)技術(shù)的最新進(jìn)展,加速了不同應(yīng)用領(lǐng)域的創(chuàng)新與發(fā)展。深度學(xué)習(xí)技術(shù)的發(fā)展深刻影響了軍事發(fā)展趨勢(shì),導(dǎo)致戰(zhàn)爭(zhēng)形式和模式發(fā)生重大變化。本文將概述
    的頭像 發(fā)表于 02-14 11:15 ?530次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)的關(guān)系

    ),是一種多層前饋神經(jīng)網(wǎng)絡(luò),通過反向傳播算法進(jìn)行訓(xùn)練。BP神經(jīng)網(wǎng)絡(luò)由輸入層、一個(gè)或多個(gè)隱藏層和輸出層組成,通過逐層遞減的方式調(diào)整網(wǎng)絡(luò)權(quán)重,目的是最小化網(wǎng)絡(luò)的輸出誤差。 二、深度學(xué)習(xí)的定義與發(fā)展
    的頭像 發(fā)表于 02-12 15:15 ?850次閱讀

    NPU在深度學(xué)習(xí)中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)作為其核心驅(qū)動(dòng)力之一,已經(jīng)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和價(jià)值。NPU(Neural Processing Unit,神經(jīng)網(wǎng)絡(luò)處理單元)是專門為深度學(xué)習(xí)
    的頭像 發(fā)表于 11-14 15:17 ?1901次閱讀

    pcie在深度學(xué)習(xí)中的應(yīng)用

    深度學(xué)習(xí)模型通常需要大量的數(shù)據(jù)和強(qiáng)大的計(jì)算能力來(lái)訓(xùn)練。傳統(tǒng)的CPU計(jì)算資源有限,難以滿足深度學(xué)習(xí)的需求。因此,GPU(圖形處理單元)和TPU(張量處理單元)等專用硬件應(yīng)運(yùn)而生,它們通過
    的頭像 發(fā)表于 11-13 10:39 ?1341次閱讀

    Pytorch深度學(xué)習(xí)訓(xùn)練的方法

    掌握這 17 種方法,用最省力的方式,加速你的 Pytorch 深度學(xué)習(xí)訓(xùn)練。
    的頭像 發(fā)表于 10-28 14:05 ?651次閱讀
    Pytorch<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>訓(xùn)練的方法

    GPU深度學(xué)習(xí)應(yīng)用案例

    GPU在深度學(xué)習(xí)中的應(yīng)用廣泛且重要,以下是一些GPU深度學(xué)習(xí)應(yīng)用案例: 一、圖像識(shí)別 圖像識(shí)別是深度學(xué)習(xí)
    的頭像 發(fā)表于 10-27 11:13 ?1342次閱讀

    激光雷達(dá)技術(shù)的基于深度學(xué)習(xí)的進(jìn)步

    信息。這使得激光雷達(dá)在自動(dòng)駕駛、無(wú)人機(jī)、機(jī)器人等領(lǐng)域具有廣泛的應(yīng)用前景。 二、深度學(xué)習(xí)技術(shù)的發(fā)展 深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)分支,
    的頭像 發(fā)表于 10-27 10:57 ?1059次閱讀

    FPGA加速深度學(xué)習(xí)模型的案例

    FPGA(現(xiàn)場(chǎng)可編程門陣列)加速深度學(xué)習(xí)模型是當(dāng)前硬件加速領(lǐng)域的一個(gè)熱門研究方向。以下是一些FPGA加速深度學(xué)習(xí)模型的案例: 一、基于FPGA的AlexNet卷積運(yùn)算加速 項(xiàng)目名稱
    的頭像 發(fā)表于 10-25 09:22 ?1220次閱讀

    AI大模型與深度學(xué)習(xí)的關(guān)系

    AI大模型與深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進(jìn),相輔相成。以下是對(duì)兩者關(guān)系的介紹: 一、深度學(xué)習(xí)是AI大模型的基礎(chǔ) 技術(shù)支撐 :深度
    的頭像 發(fā)表于 10-23 15:25 ?2877次閱讀

    深度學(xué)習(xí)GPU加速效果如何

    圖形處理器(GPU)憑借其強(qiáng)大的并行計(jì)算能力,成為加速深度學(xué)習(xí)任務(wù)的理想選擇。
    的頭像 發(fā)表于 10-17 10:07 ?608次閱讀

    FPGA做深度學(xué)習(xí)能走多遠(yuǎn)?

    ,共同進(jìn)步。 歡迎加入FPGA技術(shù)微信交流群14群! 交流問題(一) Q:FPGA做深度學(xué)習(xí)能走多遠(yuǎn)?現(xiàn)在用FPGA做深度學(xué)習(xí)加速成為一個(gè)熱門,深鑒科技,商湯,曠視科技等都有基于FPG
    發(fā)表于 09-27 20:53

    NVIDIA推出全新深度學(xué)習(xí)框架fVDB

    在 SIGGRAPH 上推出的全新深度學(xué)習(xí)框架可用于打造自動(dòng)駕駛汽車、氣候科學(xué)和智慧城市的 AI 就緒型虛擬表示。
    的頭像 發(fā)表于 08-01 14:31 ?1140次閱讀

    PyTorch深度學(xué)習(xí)開發(fā)環(huán)境搭建指南

    PyTorch作為一種流行的深度學(xué)習(xí)框架,其開發(fā)環(huán)境的搭建對(duì)于深度學(xué)習(xí)研究者和開發(fā)者來(lái)說(shuō)至關(guān)重要。在Windows操作系統(tǒng)上搭建PyTorch環(huán)境,需要綜合考慮多個(gè)方面,包括軟件安裝、
    的頭像 發(fā)表于 07-16 18:29 ?2514次閱讀

    深度學(xué)習(xí)模型有哪些應(yīng)用場(chǎng)景

    深度學(xué)習(xí)模型作為人工智能領(lǐng)域的重要分支,已經(jīng)在多個(gè)應(yīng)用場(chǎng)景中展現(xiàn)出其巨大的潛力和價(jià)值。這些應(yīng)用不僅改變了我們的日常生活,還推動(dòng)了科技進(jìn)步和產(chǎn)業(yè)升級(jí)。以下將詳細(xì)探討深度學(xué)習(xí)模型的20個(gè)主
    的頭像 發(fā)表于 07-16 18:25 ?4079次閱讀