針對ChatGPT等大型語言模型的推理,我們宣布推出一款新的Hopper GPU配備雙GPU NVLINK的PCIE H100
同時還可支持商用PCIE服務器輕松擴展
目前在云上唯一可以實際處理ChatGPT的GPU是HGX A100與適用于GPT-3處理的HGX A100相比,一臺搭載四對H100及雙GPU NVLINK的標準服務器的速度
H100可將大型語言模型的處理成本,降低一個數(shù)量級
Grace Hopper非常適合處理大型數(shù)據(jù)集,例如適用于推薦系統(tǒng)和大型語言模型的AI數(shù)據(jù)庫。
如今,利用大容量內(nèi)存,CPU會存儲和查詢巨型嵌入表,然后將結(jié)果傳輸?shù)紾PU進行推理,借助Grace-Hopper, Grace可以查詢嵌入表,并將結(jié)果直接傳輸?shù)紿opper速度比PCIE快7倍
GTC 2023主題直播地址:https://t.elecfans.com/live/2302.html
-
cpu
+關注
關注
68文章
11077瀏覽量
217025 -
服務器
+關注
關注
13文章
9793瀏覽量
87945 -
gtc
+關注
關注
0文章
73瀏覽量
4600 -
ChatGPT
+關注
關注
29文章
1589瀏覽量
9090
發(fā)布評論請先 登錄
英偉達獲美批準恢復H20在華銷售,同步推出全新兼容GPU
英偉達擬再推中國特供GPU,今年6月量產(chǎn)!
立訊技術(shù)亮相英偉達GTC 2025大會

評論