一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Tim Dettmers的最新測(cè)評(píng)結(jié)果,深度學(xué)習(xí)該選什么顯卡?

zhKF_jqr_AI ? 來(lái)源:未知 ? 作者:李倩 ? 2018-11-16 09:13 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

深度學(xué)習(xí)是一個(gè)對(duì)算力要求很高的領(lǐng)域,GPU的選擇將從根本上決定你的深度學(xué)習(xí)體驗(yàn)。如果沒(méi)有GPU,可能你完成整個(gè)實(shí)驗(yàn)需要幾個(gè)月,甚至當(dāng)你只想看看參數(shù)調(diào)整、模型修改后的效果時(shí),那可能也得耗費(fèi)1天或更久的時(shí)間。

8月份的時(shí)候,論智出過(guò)一篇《ICLR老司機(jī)的經(jīng)驗(yàn)和建議:深度學(xué)習(xí)顯卡選型指南》,當(dāng)時(shí)因?yàn)閷?shí)體卡還沒(méi)有正式銷售,再加上只英偉達(dá)只重點(diǎn)介紹了RTX 2080和RTX 2080Ti,文章作者只能根據(jù)性能數(shù)據(jù)做一些推測(cè)。時(shí)至今日,很多人已經(jīng)搶到了新顯卡,市場(chǎng)上更是半路殺出了個(gè)程咬金——RTX 2070。

為了讓測(cè)評(píng)結(jié)果更嚴(yán)謹(jǐn),小編頂著煉丹師朋友的40米長(zhǎng)刀,在這里更新一下Tim Dettmers的最新測(cè)評(píng)結(jié)果。如果讀者想知道是否該多買幾塊顯卡、N卡/A卡/Intel/谷歌/亞馬遜該怎么選擇、是什么決定了GPU的快慢,建議閱讀8月那篇長(zhǎng)文。

終極建議

整體性能最好的GPU:RTX 2070

最不建議買的GPU:任何Tesla卡, 任何Quadro卡, 任何公版卡, Titan V, Titan XP

性價(jià)比高,但小貴:RTX 2070

性價(jià)比高,同時(shí)便宜:GTX Titan (Pascal), GTX 1060 (6GB), GTX 1050 Ti (4GB)

預(yù)算很少:GTX 1060 (6GB), GTX Titan (Pascal), GTX 1050 Ti (4GB)

幾乎沒(méi)預(yù)算:GTX 1050 Ti (4GB)/CPU(建模)+ AWS/TPU(訓(xùn)練); Colab.

參加Kaggle競(jìng)賽:RTX 2070; 如果錢不夠就買GTX 1060 (6GB)或GTX Titan (Pascal),就用它們建模+ AWS(最終訓(xùn)練)+ fast ai庫(kù)

有前途的CV/機(jī)器翻譯研究員:GTX 2080 Ti; 在2019年升級(jí)到RTX Titan

NLP研究員:RTX 2070(用16-bit)

有雄心壯志的深度學(xué)習(xí)菜鳥(niǎo):先買一塊RTX 2070,如果想更深入研究深度學(xué)習(xí),6-9個(gè)月后再多買幾塊RTX 2070。用這些顯卡撐兩年,之后再按照你的成型研究方向買更合適的

隨便玩玩的深度學(xué)習(xí)菜鳥(niǎo):GTX 1050 Ti (4或2GB),不建議為此買新電腦

性能測(cè)評(píng)

各GPU和TPU的標(biāo)準(zhǔn)化原始性能數(shù)據(jù)(越高越好)

各GPU/TPU性價(jià)比比較

根據(jù)以上兩個(gè)新數(shù)據(jù),我們可以發(fā)現(xiàn)RTX2070的性價(jià)比比2080和2080Ti都要高。這是因?yàn)楸绕鹦阅苌系牟町?,現(xiàn)在它們?cè)趦r(jià)格的差異稱得上離譜,不如多入手幾個(gè)價(jià)格更低的2070。同樣的,這個(gè)分析需要考慮一些偏差:

價(jià)格波動(dòng)。目前,GTX 1080 Ti、RTX 2080和RTX 2080 Ti顯卡價(jià)格過(guò)高,未來(lái)也許會(huì)便宜一些;

這種分析適合個(gè)人用戶,它沒(méi)有考慮到網(wǎng)絡(luò)所需的內(nèi)存和計(jì)算機(jī)能容納的GPU數(shù)。例:裝了4個(gè)高速GPU的計(jì)算機(jī)和裝了2個(gè)高性價(jià)比GPU的計(jì)算機(jī),肯定是前者總體性價(jià)比更高。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 顯卡
    +關(guān)注

    關(guān)注

    16

    文章

    2505

    瀏覽量

    69496
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5561

    瀏覽量

    122778

原文標(biāo)題:2080Ti后,深度學(xué)習(xí)該選什么顯卡?(補(bǔ)充RTX2070測(cè)評(píng))

文章出處:【微信號(hào):jqr_AI,微信公眾號(hào):論智】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    如何排除深度學(xué)習(xí)工作臺(tái)上量化OpenVINO?的特定層?

    無(wú)法確定如何排除要在深度學(xué)習(xí)工作臺(tái)上量化OpenVINO?特定層
    發(fā)表于 03-06 07:31

    什么是顯卡常用連接器?要怎么?

    我們經(jīng)常會(huì)聽(tīng)到“顯卡”這個(gè)詞,它經(jīng)常會(huì)應(yīng)用在我們常用的電子設(shè)備中,在電腦硬件領(lǐng)域,顯卡作為關(guān)鍵部件,其連接器對(duì)于實(shí)現(xiàn)圖像信號(hào)傳輸至關(guān)重要。今天我?guī)Т蠹伊私庖幌逻B接器在顯卡中具體起到了哪些作用以及在
    的頭像 發(fā)表于 02-28 09:59 ?466次閱讀
    什么是<b class='flag-5'>顯卡</b>常用連接器?要怎么<b class='flag-5'>選</b>?

    軍事應(yīng)用中深度學(xué)習(xí)的挑戰(zhàn)與機(jī)遇

    人工智能尤其是深度學(xué)習(xí)技術(shù)的最新進(jìn)展,加速了不同應(yīng)用領(lǐng)域的創(chuàng)新與發(fā)展。深度學(xué)習(xí)技術(shù)的發(fā)展深刻影響了軍事發(fā)展趨勢(shì),導(dǎo)致戰(zhàn)爭(zhēng)形式和模式發(fā)生重大變化。本文將概述
    的頭像 發(fā)表于 02-14 11:15 ?530次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)的關(guān)系

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)之間存在著密切的關(guān)系,以下是對(duì)它們之間關(guān)系的介紹: 一、BP神經(jīng)網(wǎng)絡(luò)的基本概念 BP神經(jīng)網(wǎng)絡(luò),即反向傳播神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network
    的頭像 發(fā)表于 02-12 15:15 ?848次閱讀

    NPU在深度學(xué)習(xí)中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)作為其核心驅(qū)動(dòng)力之一,已經(jīng)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和價(jià)值。NPU(Neural Processing Unit,神經(jīng)網(wǎng)絡(luò)處理單元)是專門為深度學(xué)習(xí)
    的頭像 發(fā)表于 11-14 15:17 ?1897次閱讀

    Pytorch深度學(xué)習(xí)訓(xùn)練的方法

    掌握這 17 種方法,用最省力的方式,加速你的 Pytorch 深度學(xué)習(xí)訓(xùn)練。
    的頭像 發(fā)表于 10-28 14:05 ?649次閱讀
    Pytorch<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>訓(xùn)練的方法

    GPU深度學(xué)習(xí)應(yīng)用案例

    GPU在深度學(xué)習(xí)中的應(yīng)用廣泛且重要,以下是一些GPU深度學(xué)習(xí)應(yīng)用案例: 一、圖像識(shí)別 圖像識(shí)別是深度學(xué)習(xí)
    的頭像 發(fā)表于 10-27 11:13 ?1338次閱讀

    激光雷達(dá)技術(shù)的基于深度學(xué)習(xí)的進(jìn)步

    信息。這使得激光雷達(dá)在自動(dòng)駕駛、無(wú)人機(jī)、機(jī)器人等領(lǐng)域具有廣泛的應(yīng)用前景。 二、深度學(xué)習(xí)技術(shù)的發(fā)展 深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)分支,它通過(guò)模擬人
    的頭像 發(fā)表于 10-27 10:57 ?1055次閱讀

    FPGA加速深度學(xué)習(xí)模型的案例

    FPGA(現(xiàn)場(chǎng)可編程門陣列)加速深度學(xué)習(xí)模型是當(dāng)前硬件加速領(lǐng)域的一個(gè)熱門研究方向。以下是一些FPGA加速深度學(xué)習(xí)模型的案例: 一、基于FPGA的AlexNet卷積運(yùn)算加速 項(xiàng)目名稱
    的頭像 發(fā)表于 10-25 09:22 ?1212次閱讀

    AI大模型與深度學(xué)習(xí)的關(guān)系

    AI大模型與深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進(jìn),相輔相成。以下是對(duì)兩者關(guān)系的介紹: 一、深度學(xué)習(xí)是AI大模型的基礎(chǔ) 技術(shù)支撐 :深度
    的頭像 發(fā)表于 10-23 15:25 ?2874次閱讀

    深度學(xué)習(xí)GPU加速效果如何

    圖形處理器(GPU)憑借其強(qiáng)大的并行計(jì)算能力,成為加速深度學(xué)習(xí)任務(wù)的理想選擇。
    的頭像 發(fā)表于 10-17 10:07 ?607次閱讀

    FPGA做深度學(xué)習(xí)能走多遠(yuǎn)?

    ,共同進(jìn)步。 歡迎加入FPGA技術(shù)微信交流群14群! 交流問(wèn)題(一) Q:FPGA做深度學(xué)習(xí)能走多遠(yuǎn)?現(xiàn)在用FPGA做深度學(xué)習(xí)加速成為一個(gè)熱門,深鑒科技,商湯,曠視科技等都有基于FPG
    發(fā)表于 09-27 20:53

    NVIDIA推出全新深度學(xué)習(xí)框架fVDB

    在 SIGGRAPH 上推出的全新深度學(xué)習(xí)框架可用于打造自動(dòng)駕駛汽車、氣候科學(xué)和智慧城市的 AI 就緒型虛擬表示。
    的頭像 發(fā)表于 08-01 14:31 ?1132次閱讀

    PyTorch深度學(xué)習(xí)開(kāi)發(fā)環(huán)境搭建指南

    PyTorch作為一種流行的深度學(xué)習(xí)框架,其開(kāi)發(fā)環(huán)境的搭建對(duì)于深度學(xué)習(xí)研究者和開(kāi)發(fā)者來(lái)說(shuō)至關(guān)重要。在Windows操作系統(tǒng)上搭建PyTorch環(huán)境,需要綜合考慮多個(gè)方面,包括軟件安裝、
    的頭像 發(fā)表于 07-16 18:29 ?2500次閱讀

    深度學(xué)習(xí)算法在嵌入式平臺(tái)上的部署

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)算法在各個(gè)領(lǐng)域的應(yīng)用日益廣泛。然而,將深度學(xué)習(xí)算法部署到資源受限的嵌入式平臺(tái)上,仍然是一個(gè)具有挑戰(zhàn)性的任務(wù)。本文將從嵌入式平臺(tái)的特點(diǎn)、
    的頭像 發(fā)表于 07-15 10:03 ?3170次閱讀