一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

GPU如何加速人工智能或機器學習的計算速度

Dbwd_Imgtec ? 來源:cg ? 2019-01-08 15:01 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

一、Why GPU

其實GPU計算比CPU并不是“效果好”,而是“速度快”。

計算就是計算,數(shù)學上都是一樣的,1+1用什么算都是2,CPU算神經(jīng)網(wǎng)絡也是可以的,算出來的神經(jīng)網(wǎng)絡放到實際應用中效果也很好,只不過速度會很慢罷了。

GPU的起源

GPU全稱叫做graphics processing unit,圖形處理器,顧名思義就是處理圖形的。

電腦顯示器上顯示的圖像,在顯示在顯示器上之前,要經(jīng)過一些列處理,這個過程有個專有的名詞叫“渲染”。以前的計算機上沒有GPU,渲染就是CPU負責的。渲染是個什么操作呢,其實就是做了一系列圖形的計算,但這些計算往往非常耗時,占用了CPU的一大部分時間。而CPU還要處理計算機器許多其他任務。因此就專門針對圖形處理的這些操作設計了一種處理器,也就是GPU。這樣CPU就可以從繁重的圖形計算中解脫出來。

由于GPU是專門為了渲染設計的,那么他也就只能做渲染的那些事情。

渲染這個過程具體來說就是幾何點位置和顏色的計算,這兩者的計算在數(shù)學上都是用四維向量和變換矩陣的乘法,因此GPU也就被設計為專門適合做類似運算的專用處理器了。為什么說專用呢,因為很多事情他做不了。

CPU通用性強,但是專用領域性能低。工程就是折衷,這項強了,別的就弱了。再后來游戲、3D設計對渲染的要求越來越高,GPU的性能越做越強。論純理論計算性能,要比CPU高出幾十上百倍。

人們就想了,既然GPU這么強,那用GPU做計算是不是相比CPU速度能大大提升呢?于是就有了GPGPU(general purpose GPU,通用計算GPU)這個概念。但我們前面提到了,GPU是專門為了圖像渲染設計的,他只適用于那些操作。但幸運的是有些操作和GPU本職能做的那些東西非常像,那就可以通過GPU提高速度,比如深度學習。

深度學習中一類成功應用的技術叫做卷積神經(jīng)網(wǎng)絡CNN,這種網(wǎng)絡數(shù)學上就是許多卷積運算和矩陣運算的組合,而卷積運算通過一定的數(shù)學手段也可以通過矩陣運算完成。這些操作和GPU本來能做的那些圖形點的矩陣運算是一樣的。因此深度學習就可以非常恰當?shù)赜肎PU進行加速了。

以前GPGPU(通用GPU)概念不是很火熱,GPU設計出來就是為了圖形渲染。想要利用GPU輔助計算,就要完全遵循GPU的硬件架構。而現(xiàn)在GPGPU越來越流行,廠家在設計和生產GPU的時候也會照顧到計算領域的需求了。

二、GPGPU與GPU的區(qū)別

GPU的產生是為了解決圖形渲染效率的問題,但隨著技術進步,GPU越來越強大,尤其是shader出現(xiàn)之后(這個允許我們在GPU上編程),GPU能做的事越來越多,不再局限于圖形領域,也就有人動手將其能力擴展到其他計算密集的領域,這就是GP(General Purpose)GPU。

三、為什么快

比如說你用美圖xx軟件,給一張圖片加上模糊效果的時候,CPU會這么做:

使用一個模糊濾鏡算子的小窗口,從圖片的左上角開始處理,并從左往右,再從左往右進行游走處理,直到整個圖片被處理完成。因為CPU只有一個或者少數(shù)幾個核,所以執(zhí)行這種運算的時候,只能老老實實從頭遍歷到最后。

但是有一些聰明的讀者會發(fā)現(xiàn),每個窗口在處理圖片的過程中,都是獨立的,相互沒有關系的。那么同時用幾個濾鏡窗口來處理是不是更快一些? 于是我們有了GPU, 一般的GPU都有幾百個核心,意味著,我們可以同時有好幾百個濾鏡窗口來處理這張圖片。

所以說,GPU起初的設計目標就是為了處理這種圖形圖像的渲染工作,而這種工作的特性就是可以分布式、每個處理單元之間較為獨立,沒有太多的關聯(lián)。而一部分機器學習算法,比如遺傳算法,神經(jīng)網(wǎng)絡等,也具有這種分布式及局部獨立的特性(e.g.比如說一條神經(jīng)網(wǎng)絡中的鏈路跟另一條鏈路之間是同時進行計算,而且相互之間沒有依賴的),這種情況下可以采用大量小核心同時運算的方式來加快運算速度。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • gpu
    gpu
    +關注

    關注

    28

    文章

    4948

    瀏覽量

    131250
  • 人工智能
    +關注

    關注

    1807

    文章

    49028

    瀏覽量

    249551
  • 機器學習
    +關注

    關注

    66

    文章

    8503

    瀏覽量

    134625

原文標題:為何GPU可以用于加速人工智能或者機器學習的計算速度?

文章出處:【微信號:Imgtec,微信公眾號:Imagination Tech】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    AI芯片:加速人工智能計算的專用硬件引擎

    人工智能(AI)的快速發(fā)展離不開高性能計算硬件的支持,而傳統(tǒng)CPU由于架構限制,難以高效處理AI任務中的大規(guī)模并行計算需求。因此,專為AI優(yōu)化的芯片應運而生,成為推動深度學習、
    的頭像 發(fā)表于 07-09 15:59 ?150次閱讀

    最新人工智能硬件培訓AI 基礎入門學習課程參考2025版(大模型篇)

    人工智能大模型重塑教育與社會發(fā)展的當下,無論是探索未來職業(yè)方向,還是更新技術儲備,掌握大模型知識都已成為新時代的必修課。從職場上輔助工作的智能助手,到課堂用于學術研究的智能工具,大模型正在工作生活
    發(fā)表于 07-04 11:10

    人工智能機器學習以及Edge AI的概念與應用

    人工智能相關各種技術的概念介紹,以及先進的Edge AI(邊緣人工智能)的最新發(fā)展與相關應用。 人工智能機器學習是現(xiàn)代科技的核心技術
    的頭像 發(fā)表于 01-25 17:37 ?934次閱讀
    <b class='flag-5'>人工智能</b>和<b class='flag-5'>機器</b><b class='flag-5'>學習</b>以及Edge AI的概念與應用

    《CST Studio Suite 2024 GPU加速計算指南》

    許可證模型的加速令牌SIMULIA統(tǒng)一許可證模型的SimUnit令牌積分授權。 4. GPU計算的啟用 - 交互式模擬:通過
    發(fā)表于 12-16 14:25

    Banana Pi 攜手 ArmSoM 推出人工智能加速 RK3576 CM5 計算模塊

    機器學習人工智能 (ML 和 AI) 工作負載,以及 Arm Mali G52-MC3 圖形處理器和支持 H.264/H.265/MJPEG 編碼和 H.265/H.265/VP9/AVI1/AVS2
    發(fā)表于 12-11 18:38

    ASIC集成電路在人工智能中的應用

    的性能和能效比。以下是對ASIC集成電路在人工智能中應用的分析: 一、ASIC集成電路的優(yōu)勢 高性能 :ASIC針對特定應用進行優(yōu)化設計,可以充分發(fā)揮硬件的并行處理能力,實現(xiàn)高性能計算。這使得ASIC在處理人工智能任務時,如深度
    的頭像 發(fā)表于 11-20 16:03 ?2084次閱讀

    嵌入式和人工智能究竟是什么關系?

    學習和更新提供了可能,從而使人工智能應用能夠不斷適應和優(yōu)化。 總的來說,嵌入式系統(tǒng)在人工智能中的作用不容忽視。它不僅為人工智能硬件加速提供
    發(fā)表于 11-14 16:39

    GPU加速計算平臺是什么

    GPU加速計算平臺,簡而言之,是利用圖形處理器(GPU)的強大并行計算能力來加速科學
    的頭像 發(fā)表于 10-25 09:23 ?600次閱讀

    人工智能、機器學習和深度學習存在什么區(qū)別

    人工智能指的是在某種程度上顯示出類似人類智能的設備。AI有很多技術,但其中一個很大的子集是機器學習——讓算法從數(shù)據(jù)中學習。
    發(fā)表于 10-24 17:22 ?2980次閱讀
    <b class='flag-5'>人工智能</b>、<b class='flag-5'>機器</b><b class='flag-5'>學習</b>和深度<b class='flag-5'>學習</b>存在什么區(qū)別

    深度學習GPU加速效果如何

    圖形處理器(GPU)憑借其強大的并行計算能力,成為加速深度學習任務的理想選擇。
    的頭像 發(fā)表于 10-17 10:07 ?615次閱讀

    《AI for Science:人工智能驅動科學創(chuàng)新》第6章人AI與能源科學讀后感

    、優(yōu)化等方面的應用有了更清晰的認識。特別是書中提到的基于大數(shù)據(jù)和機器學習的能源管理系統(tǒng),通過實時監(jiān)測和分析能源數(shù)據(jù),實現(xiàn)了能源的高效利用和智能化管理。 其次,第6章通過多個案例展示了人工智能
    發(fā)表于 10-14 09:27

    《AI for Science:人工智能驅動科學創(chuàng)新》第一章人工智能驅動的科學創(chuàng)新學習心得

    人工智能:科學研究的加速器 第一章清晰地闡述了人工智能作為科學研究工具的強大功能。通過機器學習、深度
    發(fā)表于 10-14 09:12

    人工智能計算是什么

    人工智能計算,簡而言之,是指將人工智能技術與云計算平臺相結合,利用云計算的強大計算力、存儲能力
    的頭像 發(fā)表于 10-12 09:46 ?769次閱讀

    risc-v在人工智能圖像處理應用前景分析

    人工智能推薦系統(tǒng)中強大的圖形處理器(GPU)一爭高下。其獨特的設計使得該處理器在功耗受限的條件下仍能實現(xiàn)高性能的圖像處理任務。 Ceremorphic公司 :該公司開發(fā)的分層學習處理器結合了
    發(fā)表于 09-28 11:00

    FPGA在人工智能中的應用有哪些?

    定制化的硬件設計,提高了硬件的靈活性和適應性。 綜上所述,F(xiàn)PGA在人工智能領域的應用前景廣闊,不僅可以用于深度學習加速和云計算加速,還
    發(fā)表于 07-29 17:05