一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度學(xué)習(xí)的發(fā)展會帶給硬件架構(gòu)怎樣的影響?

張康康 ? 2019-07-29 18:21 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群


2019 ISSCC 大會于2月17—21日在美國舊金山開幕,F(xiàn)acebook 首席 AI 科學(xué)家 Yann LeCun 在會上發(fā)表了主題演講「深度學(xué)習(xí)硬件:過去、現(xiàn)在和未來」,詳細介紹了深度學(xué)習(xí)研究的發(fā)展將如何影響未來硬件架構(gòu)。

如今,只要在網(wǎng)絡(luò)上搜索“深度學(xué)習(xí)”算法,都會顯示很多相關(guān)的信息,在過去的數(shù)十年里,人工智能已經(jīng)越來越成功地應(yīng)用于生物識別、語音識別、視頻識別、翻譯等。國內(nèi)更是誕生了諸如曠視科技、商湯科技、極鏈科技Video++、依圖科技等優(yōu)秀人工智能初創(chuàng)企業(yè)。設(shè)計人員將大量高度并行的計算加載到硬件上,尤其是最初為快速圖像渲染而開發(fā)的圖形處理單元(GPU)。這些芯片特別適合于計算密集型“訓(xùn)練”階段,該階段使用許多經(jīng)過驗證的例子來調(diào)整系統(tǒng)參數(shù)。在“推理”階段,其中部署深度學(xué)習(xí)處理的輸入,需要更大的存儲器訪問和快速響應(yīng),目前已經(jīng)可以使用GPU實現(xiàn)。

深度學(xué)習(xí)與GPU

為了快速應(yīng)對增長的需求,許多公司都正在開發(fā)能夠直接賦予深度學(xué)習(xí)能力的硬件,迫切的需要進行推理以及培訓(xùn)。近年來隨著深度學(xué)習(xí)的迅速發(fā)展,卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network)被廣泛使用,特別是在圖像識別場景中的應(yīng)用。為了滿足更多場景應(yīng)用,需要有一種能夠根據(jù)實際場景需求替換不同CNN網(wǎng)絡(luò)模型的系統(tǒng)框架。在過去的20年里,視頻、游戲等產(chǎn)業(yè)推動了GPU的進步,其繪制圖形所需的矩陣正是深度學(xué)習(xí)所需的計算類型。

GPU技術(shù)的進步則是推動了神經(jīng)網(wǎng)絡(luò)的發(fā)展,因為在沒有GPU的情況下訓(xùn)練深度學(xué)習(xí)模型在大多數(shù)情況下會非常緩慢。許多人把生產(chǎn)中深度學(xué)習(xí)的想法想的過于復(fù)雜,我們可以在生產(chǎn)中使用CPU和選擇的網(wǎng)絡(luò)服務(wù)器進行深入學(xué)習(xí)。生產(chǎn)中進行訓(xùn)練是非常罕見的。即使你想每天更新你的模型權(quán)重,也不需要在生產(chǎn)中進行訓(xùn)練。這意味著你只是在生產(chǎn)過程中進行“推理”,比“培訓(xùn)”更快更容易。你可以使用任何你喜歡的Web服務(wù)器,并將其設(shè)置為簡單的API調(diào)用。如果能夠有效地批量處理數(shù)據(jù),GPU只會提供更快的速度。

GPU在處理圖形的時候,從最初的設(shè)計就能夠執(zhí)行并行指令,從一個GPU核心收到一組多邊形數(shù)據(jù),到完成所有處理并輸出圖像可以做到完全獨立。由于最初GPU就采用了大量的執(zhí)行單元,這些執(zhí)行單元可以輕松的加載并行處理,而不像CPU那樣的單線程處理。另外,現(xiàn)代的GPU也可以在每個指令周期執(zhí)行更多的單一指令。所以GPU比CPU更適合深度學(xué)習(xí)的大量矩陣、卷積運算的需求。深度學(xué)習(xí)的應(yīng)用與其原先的應(yīng)用需求頗為類似。GPU廠家順理成章的在深度學(xué)習(xí),找到了新增長點。

深度學(xué)習(xí)發(fā)展是否出現(xiàn)“瓶頸”

我們之所以使用GPU加速深度學(xué)習(xí),是因為深度學(xué)習(xí)所要計算的數(shù)據(jù)量異常龐大,用傳統(tǒng)的計算方式需要漫長的時間。但如果未來深度學(xué)習(xí)的數(shù)據(jù)量有所下降,或者說我們不能提供給深度學(xué)習(xí)所需要的足夠數(shù)據(jù)量,是否就意味著深度學(xué)習(xí)也要進入“瓶頸”了呢?

做深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練需要大量模型,然后才能實現(xiàn)數(shù)學(xué)上的收斂。深度學(xué)習(xí)要真正接近成人的智力,它所需要的神經(jīng)網(wǎng)絡(luò)規(guī)模非常龐大,它所需要的數(shù)據(jù)量,會比我們做語言識別、圖像處理要多得多。假設(shè)說,我們發(fā)現(xiàn)我們沒有辦法提供這樣的數(shù)據(jù),則很有可能出現(xiàn)瓶頸。

目前,深度學(xué)習(xí)還在蓬勃發(fā)展往上的階段。比如我們現(xiàn)階段主要做得比較成熟的語音、圖像、視頻方面,整個的數(shù)據(jù)量還是在不斷的增多的,網(wǎng)絡(luò)規(guī)模也在不斷的變復(fù)雜??梢哉f深度學(xué)習(xí)是GPU計算發(fā)展的關(guān)鍵,誰能找到最適合深度學(xué)習(xí)的模式,誰就是勝利者。

結(jié)語:

深度學(xué)習(xí)經(jīng)過這么長時間的發(fā)展,在網(wǎng)絡(luò)的種類、復(fù)雜程度和處理的信息量上都發(fā)生了天翻地覆的變化。當前,網(wǎng)絡(luò)種類上,從早期的 AlexNet 和 GoogleNet 到現(xiàn)在各企業(yè)推出的 GAN以及各種深度強化學(xué)習(xí)的網(wǎng)絡(luò),它們各自網(wǎng)絡(luò)結(jié)構(gòu)都有不同,開發(fā)者在適應(yīng)最新的網(wǎng)絡(luò)上常常會遇到一些麻煩。處理的信息量也在成倍地增長,算力需求越來越高的情況下,也將對搭載處理單元的硬件有著更高的要求。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    GPU架構(gòu)深度解析

    GPU架構(gòu)深度解析從圖形處理到通用計算的進化之路圖形處理單元(GPU),作為現(xiàn)代計算機中不可或缺的一部分,已經(jīng)從最初的圖形渲染專用處理器,發(fā)展成為強大的并行計算引擎,廣泛應(yīng)用于人工智能、科學(xué)計算
    的頭像 發(fā)表于 05-30 10:36 ?385次閱讀
    GPU<b class='flag-5'>架構(gòu)</b><b class='flag-5'>深度</b>解析

    解鎖未來汽車電子技術(shù):軟件定義車輛與區(qū)域架構(gòu)深度解析

    解鎖未來汽車電子技術(shù):軟件定義車輛與區(qū)域架構(gòu)深度解析 ——立即下載白皮書,搶占智能汽車發(fā)展先機 *附件:解鎖未來汽車電子技術(shù):軟件定義車輛與區(qū)域架構(gòu)
    的頭像 發(fā)表于 04-27 11:58 ?582次閱讀

    軍事應(yīng)用中深度學(xué)習(xí)的挑戰(zhàn)與機遇

    人工智能尤其是深度學(xué)習(xí)技術(shù)的最新進展,加速了不同應(yīng)用領(lǐng)域的創(chuàng)新與發(fā)展深度學(xué)習(xí)技術(shù)的發(fā)展深刻影響
    的頭像 發(fā)表于 02-14 11:15 ?539次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)的關(guān)系

    ),是一種多層前饋神經(jīng)網(wǎng)絡(luò),它通過反向傳播算法進行訓(xùn)練。BP神經(jīng)網(wǎng)絡(luò)由輸入層、一個或多個隱藏層和輸出層組成,通過逐層遞減的方式調(diào)整網(wǎng)絡(luò)權(quán)重,目的是最小化網(wǎng)絡(luò)的輸出誤差。 二、深度學(xué)習(xí)的定義與發(fā)展
    的頭像 發(fā)表于 02-12 15:15 ?862次閱讀

    GPU在深度學(xué)習(xí)中的應(yīng)用 GPUs在圖形設(shè)計中的作用

    隨著人工智能技術(shù)的飛速發(fā)展深度學(xué)習(xí)作為其核心部分,已經(jīng)成為推動技術(shù)進步的重要力量。GPU(圖形處理單元)在深度學(xué)習(xí)中扮演著至關(guān)重要的角色,
    的頭像 發(fā)表于 11-19 10:55 ?1628次閱讀

    NPU在深度學(xué)習(xí)中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)作為其核心驅(qū)動力之一,已經(jīng)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和價值。NPU(Neural Processing Unit,神經(jīng)網(wǎng)絡(luò)處理單元)是專門為深度
    的頭像 發(fā)表于 11-14 15:17 ?1918次閱讀

    pcie在深度學(xué)習(xí)中的應(yīng)用

    深度學(xué)習(xí)模型通常需要大量的數(shù)據(jù)和強大的計算能力來訓(xùn)練。傳統(tǒng)的CPU計算資源有限,難以滿足深度學(xué)習(xí)的需求。因此,GPU(圖形處理單元)和TPU(張量處理單元)等專用
    的頭像 發(fā)表于 11-13 10:39 ?1351次閱讀

    Pytorch深度學(xué)習(xí)訓(xùn)練的方法

    掌握這 17 種方法,用最省力的方式,加速你的 Pytorch 深度學(xué)習(xí)訓(xùn)練。
    的頭像 發(fā)表于 10-28 14:05 ?657次閱讀
    Pytorch<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>訓(xùn)練的方法

    GPU深度學(xué)習(xí)應(yīng)用案例

    GPU在深度學(xué)習(xí)中的應(yīng)用廣泛且重要,以下是一些GPU深度學(xué)習(xí)應(yīng)用案例: 一、圖像識別 圖像識別是深度學(xué)習(xí)
    的頭像 發(fā)表于 10-27 11:13 ?1373次閱讀

    激光雷達技術(shù)的基于深度學(xué)習(xí)的進步

    信息。這使得激光雷達在自動駕駛、無人機、機器人等領(lǐng)域具有廣泛的應(yīng)用前景。 二、深度學(xué)習(xí)技術(shù)的發(fā)展 深度學(xué)習(xí)是機器
    的頭像 發(fā)表于 10-27 10:57 ?1069次閱讀

    FPGA加速深度學(xué)習(xí)模型的案例

    FPGA(現(xiàn)場可編程門陣列)加速深度學(xué)習(xí)模型是當前硬件加速領(lǐng)域的一個熱門研究方向。以下是一些FPGA加速深度學(xué)習(xí)模型的案例: 一、基于FPG
    的頭像 發(fā)表于 10-25 09:22 ?1234次閱讀

    AI大模型與深度學(xué)習(xí)的關(guān)系

    AI大模型與深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進,相輔相成。以下是對兩者關(guān)系的介紹: 一、深度學(xué)習(xí)是AI大模型的基礎(chǔ) 技術(shù)支撐 :深度
    的頭像 發(fā)表于 10-23 15:25 ?2893次閱讀

    【「嵌入式Hypervisor:架構(gòu)、原理與應(yīng)用」閱讀體驗】+全文學(xué)習(xí)心得

    Hypervisor將在更多領(lǐng)域中得到廣泛應(yīng)用,為嵌入式系統(tǒng)的發(fā)展提供更為強大的支持。 四、學(xué)習(xí)總結(jié)與展望 通過本次學(xué)習(xí),我對嵌入式Hypervisor技術(shù)有了全面而深入的理解。我不僅掌握了其基礎(chǔ)
    發(fā)表于 10-09 19:11

    【「嵌入式Hypervisor:架構(gòu)、原理與應(yīng)用」閱讀體驗】+第7-8章學(xué)習(xí)心得

    這是一本很好的學(xué)習(xí)嵌入式的書籍。 在深入學(xué)習(xí)《嵌入式Hypervisor:架構(gòu)、原理與應(yīng)用》的第7-8章后,我對嵌入式Hypervisor的架構(gòu)、原理及其在實際應(yīng)用中的重要性有了更為深
    發(fā)表于 10-09 18:50

    FPGA做深度學(xué)習(xí)能走多遠?

    。FPGA的優(yōu)勢就是可編程可配置,邏輯資源多,功耗低,而且賽靈思等都在極力推廣。不知道用FPGA做深度學(xué)習(xí)未來會怎樣發(fā)展,能走多遠,你怎么看。 A:FPGA 在
    發(fā)表于 09-27 20:53