11月19日消息,人工智能(AI)芯片大廠英偉達(NVIDIA)正式推出了兩個全新的AI解決方案硬件平臺,一個是Blackwell GB200 NVL4,一個是Hopper H200 NVL。
據(jù)介紹,英偉達GB200 NVL4是一個全新的模塊,是基于原有的GB200 Grace Blackwell Superchip AI解決方案的更大擴展。GB200 NVL4模塊是在更大的主板上配置兩個Blackwell GB200 GPU,即擁有兩個Grace CPU和4個Blackwell B200 GPU。該模塊被設(shè)計為具有4-GPU NVLINK域和1.3T相干內(nèi)存的單服務(wù)器解決方案。在性能方面,該模塊將使模擬性能提高2.2倍,訓(xùn)練和推理性能提高1.8倍。英偉達的合作伙伴將在未來幾個月內(nèi)提供NVL4解決方案。

此外,基于 PCIe 的Hopper H200 NVL已全面上市,這些卡可以通過 NVLINK 域連接多達 4 個 GPU,可提供比標(biāo)準(zhǔn) PCIe 解決方案快7倍的帶寬。英偉達表示,H200 NVL 解決方案可以適應(yīng)任何數(shù)據(jù)中心,并提供一系列針對混合 HPC 和 AI 工作負(fù)載優(yōu)化的靈活服務(wù)器配置。

在規(guī)格方面,Hopper H200 NVL解決方案提供了1.5倍的HBM內(nèi)存、1.7倍的LLM推理性能和1.3倍的HPC性能。您將獲得114個SM,總共14592個CUDA內(nèi)核、456個張量內(nèi)核和最多3個FP8 TFLOP(FP16累積)性能。GPU具有跨5120位接口配置的80 Gb HBM2e內(nèi)存,TDP為350瓦。

至于 TDP,由于 Superchip 模塊的功率約為 2700W,預(yù)計更大的 GB200 NVL4 解決方案的功耗接近 6000W 的功率。人們可以很容易地看到英偉達 為加速 AI 計算領(lǐng)域所做的努力。
英偉達最近在MLPerf v4.1中發(fā)布了訓(xùn)練和推理方面的世界紀(jì)錄,不僅最新的Blackwell平臺令人驚嘆,而且上一代的Hopper通過持續(xù)優(yōu)化也變得越來越好。該公司還將其人工智能路線圖加速到一年的節(jié)奏,并計劃在未來幾年推出幾個新的基礎(chǔ)設(shè)施,如Blackwell Ultra和Rubin。
編輯:芯智訊-浪客劍
-
芯片
+關(guān)注
關(guān)注
460文章
52520瀏覽量
441054 -
人工智能
+關(guān)注
關(guān)注
1807文章
49029瀏覽量
249586 -
英偉達
+關(guān)注
關(guān)注
22文章
3953瀏覽量
93805
發(fā)布評論請先 登錄
評論