一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

英偉達(dá)Blackwell可支持10萬億參數(shù)模型AI訓(xùn)練,實(shí)時(shí)大語言模型推理

Carol Li ? 來源:電子發(fā)燒友 ? 作者:李彎彎 ? 2024-09-04 09:10 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

電子發(fā)燒友網(wǎng)報(bào)道(文/李彎彎)在近日的Hot Chips 2024大會(huì)上,英偉達(dá)公布了下一代GPU架構(gòu)Blackwell的更多細(xì)節(jié)信息,以及未來的產(chǎn)品路線圖。

英偉達(dá)Blackwell是通用計(jì)算全棧矩陣的終極解決方案,由多個(gè)英偉達(dá)芯片組成,包括Blackwell GPU、Grace CPU、BlueField數(shù)據(jù)處理單元、ConnectX網(wǎng)絡(luò)接口卡、NVLink交換機(jī)、Spectrum以太網(wǎng)交換機(jī)和Quantum InfiniBand交換機(jī)。

英偉達(dá)稱,Blackwell擁有6項(xiàng)革命性技術(shù),可支持多達(dá)10萬億參數(shù)的模型進(jìn)行AI訓(xùn)練和實(shí)時(shí)大語言模型(LLM)推理。

NVIDIA Blackwell 的技術(shù)特點(diǎn)

NVIDIA Blackwell 架構(gòu)是NVIDIA于2024年3月在NVIDIA GTC大會(huì)上發(fā)布的全新架構(gòu),是NVIDIA繼Hopper架構(gòu)之后推出的全新架構(gòu),旨在推動(dòng)生成式AI和加速計(jì)算領(lǐng)域的發(fā)展。Blackwell架構(gòu)擁有六項(xiàng)革命性技術(shù),這些技術(shù)共同構(gòu)成了其強(qiáng)大的計(jì)算能力和高效性。

一、它是全球最強(qiáng)大的芯片,擁有2080億個(gè)晶體管,這確保了芯片具有極高的計(jì)算能力和復(fù)雜性。它采用臺(tái)積電4納米工藝制造,提高了芯片的集成度,降低了功耗和發(fā)熱量。配備192GB的HBM3E顯存,極大提升了芯片的數(shù)據(jù)處理能力和效率。

第二代Transformer引擎,結(jié)合Blackwell Tensor Core技術(shù)和TensorRT-LLM及NeMo Megatron框架中的英偉達(dá)先進(jìn)動(dòng)態(tài)范圍管理算法,Blackwell通過新的4位浮點(diǎn)AI支持雙倍的計(jì)算和模型大小推理能力。

第五代NVLink,為每個(gè)GPU提供了突破性的1.8TB/s雙向吞吐量,確保最復(fù)雜LLM之間多達(dá)576個(gè)GPU之間的無縫高速通信。

四、RAS引擎,Blackwell支持的GPU包含一個(gè)專用引擎,實(shí)現(xiàn)可靠性、可用性和服務(wù)性。此外,Blackwell架構(gòu)還增加了芯片級(jí)功能,利用基于AI的預(yù)防性維護(hù)進(jìn)行診斷和預(yù)測(cè)可靠性問題,從而延長(zhǎng)系統(tǒng)正常運(yùn)行時(shí)間并提高大規(guī)模部署AI的彈性。

五、安全人工智能,先進(jìn)的機(jī)密計(jì)算功能可在不影響性能的情況下保護(hù)AI模型和客戶數(shù)據(jù),并支持新的本機(jī)接口加密協(xié)議,進(jìn)一步增強(qiáng)了芯片的安全性。

六、解壓縮引擎,專用解壓縮引擎支持最新格式,加快數(shù)據(jù)庫查詢,提供數(shù)據(jù)分析和數(shù)據(jù)科學(xué)的最高性能。

生態(tài)系統(tǒng)方面,Blackwell不僅是系統(tǒng)的核心芯片,更是一個(gè)全新的平臺(tái)。它涵蓋了從CPU和GPU計(jì)算到用于互連的不同類型的網(wǎng)絡(luò),是通用計(jì)算全棧矩陣的終極解決方案。

Blackwell架構(gòu)將助推數(shù)據(jù)處理、工程模擬、電子設(shè)計(jì)自動(dòng)化、計(jì)算機(jī)輔助藥物設(shè)計(jì)、量子計(jì)算和生成式AI等領(lǐng)域?qū)崿F(xiàn)突破。

NVIDIA已經(jīng)展示了基于Blackwell架構(gòu)的GPU GB200 NVL72等產(chǎn)品,該產(chǎn)品專為萬億參數(shù)AI而設(shè)計(jì),對(duì)大語言模型(LLM)推理性能提升高達(dá)30倍。隨著AI模型尺寸的增加,在多個(gè)GPU上拆分工作負(fù)載勢(shì)在必行。而Blackwell足夠強(qiáng)大,可以在一個(gè)GPU中處理專家模型。

相比Hopper架構(gòu)的優(yōu)勢(shì)

NVIDIA Blackwell架構(gòu)相比其上一個(gè)NVIDIA Hopper架構(gòu)具有多方面的優(yōu)勢(shì)。NVIDIA Hopper架構(gòu)是NVIDIA在2022年推出的GPU架構(gòu),該架構(gòu)旨在取代之前的NVIDIA Ampere架構(gòu),并為新一代工作負(fù)載提供強(qiáng)大的加速計(jì)算平臺(tái)。

Hopper架構(gòu)采用了先進(jìn)的臺(tái)積電4N工藝制造,集成了超過800億個(gè)晶體管,這為高性能計(jì)算提供了堅(jiān)實(shí)的基礎(chǔ)。

Hopper架構(gòu)通過Transformer引擎推進(jìn)了Tensor Core技術(shù)的發(fā)展,旨在加速AI模型訓(xùn)練。Transformer引擎能夠應(yīng)用混合的FP8和FP16精度,以大幅加速Transformer模型的AI計(jì)算。

與上一代相比,Hopper架構(gòu)在TF32、FP64、FP16和INT8精度的每秒浮點(diǎn)運(yùn)算(FLOPS)上提高了3倍。這種性能提升使得Hopper在處理大規(guī)模AI模型時(shí)更加高效。

Hopper架構(gòu)引入了第四代NVLink技術(shù),可通過NVIDIA DGX和HGX服務(wù)器擴(kuò)展多GPU輸入和輸出(IO),每個(gè)GPU的雙向傳輸速率可達(dá)900GB/s,比PCIe 5.0的帶寬高7倍。

第三代NVIDIA NVSwitch支持SHARP網(wǎng)絡(luò)計(jì)算技術(shù),打破了該技術(shù)只能通過InfiniBand提供的傳統(tǒng)限制。這使得Hopper架構(gòu)在處理大規(guī)模HPC和AI工作負(fù)載時(shí)能夠?qū)崿F(xiàn)更高的互連效率和通信帶寬。

相比較而言,晶體管數(shù)量與計(jì)算能力方面,Blackwell架構(gòu)GPU擁有2080億個(gè)晶體管,比Hopper架構(gòu)的GPU多出顯著數(shù)量,這直接提升了其計(jì)算能力。

Blackwell架構(gòu)的單個(gè)芯片計(jì)算能力達(dá)到了20 petaFLOPS,這使其在處理大規(guī)模AI模型時(shí)具有更高的實(shí)時(shí)性能和效率。

內(nèi)存與帶寬方面,Blackwell架構(gòu)配備了更大的HBM3e內(nèi)存(如192GB)和更高的顯存帶寬(如8TB/s),相比Hopper架構(gòu),這進(jìn)一步增強(qiáng)了數(shù)據(jù)處理和傳輸?shù)乃俣取?br />
寫在最后

NVIDIA Blackwell架構(gòu)相比其上一個(gè)架構(gòu)在性能、計(jì)算能力、技術(shù)創(chuàng)新、特性增強(qiáng)以及生態(tài)系統(tǒng)與應(yīng)用拓展等方面均具有顯著優(yōu)勢(shì)。應(yīng)用方面,Blackwell架構(gòu)將助推數(shù)據(jù)處理、工程模擬、電子設(shè)計(jì)自動(dòng)化、計(jì)算機(jī)輔助藥物設(shè)計(jì)、量子計(jì)算和生成式AI等領(lǐng)域?qū)崿F(xiàn)突破。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    4949

    瀏覽量

    131280
  • AI
    AI
    +關(guān)注

    關(guān)注

    88

    文章

    35168

    瀏覽量

    280124
  • 英偉達(dá)
    +關(guān)注

    關(guān)注

    22

    文章

    3953

    瀏覽量

    93820
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    AI模型不再依賴英偉達(dá)GPU?蘋果揭秘自研大模型

    ,獲得足夠的算力構(gòu)建自己的計(jì)算中心,用于訓(xùn)練不同應(yīng)用的AI模型。 AI領(lǐng)域眾星捧月也造就了英偉達(dá)
    的頭像 發(fā)表于 08-05 06:07 ?4652次閱讀
    <b class='flag-5'>AI</b>大<b class='flag-5'>模型</b>不再依賴<b class='flag-5'>英偉</b><b class='flag-5'>達(dá)</b>GPU?蘋果揭秘自研大<b class='flag-5'>模型</b>

    首創(chuàng)開源架構(gòu),天璣AI開發(fā)套件讓端側(cè)AI模型接入得心應(yīng)手

    Studio提供了最優(yōu)解。Neuron Studio針對(duì)模型到應(yīng)用,提供一站式、全鏈路、自動(dòng)化的開發(fā)協(xié)助,不僅讓AI應(yīng)用開發(fā)的全流程可視化,更帶來整個(gè)多種工具的一站式開發(fā)能力,還支持
    發(fā)表于 04-13 19:52

    英偉達(dá)Cosmos-Reason1 模型深度解讀

    英偉達(dá)近期發(fā)布的 Cosmos-Reason1 模型在物理常識(shí)推理領(lǐng)域引發(fā)廣泛關(guān)注。作為專為物理世界交互設(shè)計(jì)的多模態(tài)大語言
    的頭像 發(fā)表于 03-29 23:29 ?1982次閱讀

    英偉達(dá)GTC25亮點(diǎn):NVIDIA Blackwell Ultra 開啟 AI 推理新時(shí)代

    英偉達(dá)GTC25亮點(diǎn):NVIDIA Blackwell Ultra 開啟 AI 推理新時(shí)代
    的頭像 發(fā)表于 03-20 15:35 ?736次閱讀

    訓(xùn)練好的ai模型導(dǎo)入cubemx不成功怎么處理?

    訓(xùn)練好的ai模型導(dǎo)入cubemx不成功咋辦,試了好幾個(gè)模型壓縮了也不行,ram占用過大,有無解決方案?
    發(fā)表于 03-11 07:18

    了解DeepSeek-V3 和 DeepSeek-R1兩個(gè)大模型的不同定位和應(yīng)用選擇

    ) 擴(kuò)展上下文+結(jié)構(gòu)化推理支持更長(zhǎng)復(fù)雜輸入) 響應(yīng)控制 通用流暢性優(yōu)先 強(qiáng)化分步解釋與中間過程可解釋性 3. 技術(shù)架構(gòu)差異 技術(shù)點(diǎn) DeepSeek-V3 DeepSeek-R1 訓(xùn)練數(shù)據(jù) 通用語料+部分
    發(fā)表于 02-14 02:08

    新品| LLM630 Compute Kit,AI語言模型推理開發(fā)平臺(tái)

    LLM630LLM推理,視覺識(shí)別,開發(fā),靈活擴(kuò)展···LLM630ComputeKit是一款AI語言模型
    的頭像 發(fā)表于 01-17 18:48 ?703次閱讀
    新品| LLM630 Compute Kit,<b class='flag-5'>AI</b> 大<b class='flag-5'>語言</b><b class='flag-5'>模型</b><b class='flag-5'>推理</b>開發(fā)平臺(tái)

    英偉達(dá)發(fā)布Nemotron-CC大型AI訓(xùn)練數(shù)據(jù)庫

    ,Nemotron-CC數(shù)據(jù)庫總計(jì)包含了驚人的6.3萬億個(gè)Token,其中1.9萬億為精心合成的數(shù)據(jù)。這一龐大的數(shù)據(jù)量不僅為AI模型訓(xùn)練
    的頭像 發(fā)表于 01-14 14:14 ?489次閱讀

    英偉達(dá)推出基石世界模型Cosmos,解決智駕與機(jī)器人具身智能訓(xùn)練數(shù)據(jù)問題

    CES 2025展會(huì)上,英偉達(dá)推出了基石世界模型Cosmos,World Foundation Model基石世界模型,簡(jiǎn)稱WFM。 物理 AI
    的頭像 發(fā)表于 01-14 11:04 ?1289次閱讀
    <b class='flag-5'>英偉</b><b class='flag-5'>達(dá)</b>推出基石世界<b class='flag-5'>模型</b>Cosmos,解決智駕與機(jī)器人具身智能<b class='flag-5'>訓(xùn)練</b>數(shù)據(jù)問題

    NaVILA:加州大學(xué)與英偉達(dá)聯(lián)合發(fā)布新型視覺語言模型

    日前,加州大學(xué)的研究人員攜手英偉達(dá),共同推出了一款創(chuàng)新的視覺語言模型——NaVILA。該模型在機(jī)器人導(dǎo)航領(lǐng)域展現(xiàn)出了獨(dú)特的應(yīng)用潛力,為智能機(jī)
    的頭像 發(fā)表于 12-13 10:51 ?690次閱讀

    語言模型開發(fā)框架是什么

    語言模型開發(fā)框架是指用于訓(xùn)練、推理和部署大型語言模型的軟件工具和庫。下面,
    的頭像 發(fā)表于 12-06 10:28 ?530次閱讀

    英偉達(dá)發(fā)布AI模型 Llama-3.1-Nemotron-51B AI模型

    英偉達(dá)公司宣布推出 Llama-3.1-Nemotron-51B AI 模型,這個(gè)AI模型是源
    的頭像 發(fā)表于 09-26 17:30 ?930次閱讀

    英偉達(dá)震撼發(fā)布:全新AI模型參數(shù)規(guī)模躍升至80億量級(jí)

    8月23日,英偉達(dá)宣布,其全新AI模型面世,該模型參數(shù)規(guī)模高達(dá)80億,具有精度高、計(jì)算效益大等優(yōu)
    的頭像 發(fā)表于 08-23 16:08 ?1109次閱讀

    【《大語言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)知識(shí)學(xué)習(xí)

    收集海量的文本數(shù)據(jù)作為訓(xùn)練材料。這些數(shù)據(jù)集不僅包括語法結(jié)構(gòu)的學(xué)習(xí),還包括對(duì)語言的深層次理解,如文化背景、語境含義和情感色彩等。 自監(jiān)督學(xué)習(xí):模型采用自監(jiān)督學(xué)習(xí)策略,在大量無標(biāo)簽文本數(shù)據(jù)上學(xué)習(xí)
    發(fā)表于 08-02 11:03

    蘋果AI模型訓(xùn)練新動(dòng)向:攜手谷歌,未選英偉達(dá)

    近日,蘋果公司發(fā)布的最新研究報(bào)告揭示了其在人工智能領(lǐng)域的又一重要戰(zhàn)略選擇——采用谷歌設(shè)計(jì)的芯片來訓(xùn)練AI模型,而非行業(yè)巨頭英偉達(dá)的產(chǎn)品。這
    的頭像 發(fā)表于 08-01 18:11 ?1148次閱讀