一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Cerebras推出WSE-3 AI芯片,比NVIDIA H100大56倍

SDNLAB ? 來源:SDNLAB ? 2024-03-14 17:11 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

Cerebras 是一家位于美國(guó)加利福尼亞州的初創(chuàng)公司,2019 年進(jìn)入硬件市場(chǎng),其首款超大人工智能芯片名為 Wafer Scale Engine (WSE) ,尺寸為 8 英寸 x 8 英寸,比最大的 GPU 大 56 倍,擁有 1.2 萬億個(gè)晶體管和 40 萬個(gè)計(jì)算核心,是當(dāng)時(shí)最快、最大的 AI 芯片。隨后在 2021 年,Cerebras 推出了 WSE-2,這是一款 7 納米芯片,其性能是原來的兩倍,擁有 2.6 萬億個(gè)晶體管和 85 萬個(gè)核心。

近日,Cerebras 宣布推出了第三代WSE-3,性能再次提高了近一倍。

8cb56d78-e1e2-11ee-a297-92fbcf53809c.png

01

Cerebras 推出 WSE-3 AI 芯片,比 NVIDIA H100 大 56 倍 WSE-3采用臺(tái)積電5nm工藝,擁有超過4萬億個(gè)晶體管和90 萬個(gè)核心,可提供 125 petaflops 的性能。這款芯片是臺(tái)積電可以制造的最大的方形芯片。WSE-3擁有44GB 片上 SRAM,而不是片外 HBM3E 或 DDR5。內(nèi)存與核心一起分布,目的是使數(shù)據(jù)和計(jì)算盡可能接近。

自推出以來,Cerebras 就將自己定位為英偉達(dá)GPU 驅(qū)動(dòng)的人工智能系統(tǒng)的替代品。這家初創(chuàng)公司的宣傳是:他們可以使用更少的芯片在 Cerebras 硬件上進(jìn)行 AI訓(xùn)練,而不是使用數(shù)千個(gè) GPU。據(jù)稱,一臺(tái)Cerebras服務(wù)器可以完成與 10 個(gè) GPU 機(jī)架相同的工作。

下圖是Cerebras WSE-3和英偉達(dá) H100的對(duì)比。

8cd2762a-e1e2-11ee-a297-92fbcf53809c.png

Cerebras 的獨(dú)特優(yōu)勢(shì)是將整個(gè)硅片直接轉(zhuǎn)化為單一巨大的處理器,從而大幅提升計(jì)算性能和效率。英偉達(dá)、AMD、英特爾等公司往往會(huì)把一塊大晶圓切成多個(gè)小的部分來制造芯片,在充斥著 Infiniband、以太網(wǎng)、PCIe 和 NVLink 交換機(jī)的英偉達(dá)GPU 集群中,大量的功率和成本花費(fèi)在重新鏈接芯片上,Cerebras的方法極大地減少了芯片之間的數(shù)據(jù)傳輸延遲,提高了能效比,并且在AI和ML任務(wù)中實(shí)現(xiàn)了前所未有的計(jì)算速度。

02

Cerebras CS-3 系統(tǒng)

Cerebras CS-3 是第三代 Wafer Scale 系統(tǒng)。其頂部具有 MTP/MPO 光纖連接,以及用于冷卻的電源、風(fēng)扇和冗余泵。該系統(tǒng)及其新芯片在相同的功耗和價(jià)格下實(shí)現(xiàn)了大約 2 倍的性能飛躍。

8ce05114-e1e2-11ee-a297-92fbcf53809c.png

Cerebras WSE-3 的核心數(shù)量是英偉達(dá)的 H100 Tensor Core 的 52 倍。與 Nvidia DGX H100 系統(tǒng)相比,由 WSE-3 芯片驅(qū)動(dòng)的 Cerebras CS-3 系統(tǒng)的訓(xùn)練速度提高了 8 倍,內(nèi)存增加了 1,900 倍,并且可以訓(xùn)練多達(dá) 24 萬億個(gè)參數(shù)的 AI 模型,這是其 600 倍。Cerebras 高管表示,CS-3的能力比 DGX H100 的能力還要大。在 GPU 上訓(xùn)練需要 30 天的 Llama 700 億參數(shù)模型,使用CS-3 集群進(jìn)行訓(xùn)練只需要一天。

8ceb5910-e1e2-11ee-a297-92fbcf53809c.png8cfd537c-e1e2-11ee-a297-92fbcf53809c.png

CS-3可以配置為多達(dá)2048個(gè)系統(tǒng)的集群,可實(shí)現(xiàn)高達(dá) 256 exaFLOPs 的 AI 計(jì)算,專為快速訓(xùn)練 GPT-5 規(guī)模的模型而設(shè)計(jì)。

8d0abbca-e1e2-11ee-a297-92fbcf53809c.png

Cerebras CS-3 適用于 2048 節(jié)點(diǎn) 256EF 集群

8d1ef59a-e1e2-11ee-a297-92fbcf53809c.png

適用于 GPT 5 規(guī)模的 Cerebras CS-3 集群

03

Cerebras AI編程

Cerebras 聲稱其平臺(tái)比英偉達(dá)的平臺(tái)更易于使用,原因在于 Cerebras 存儲(chǔ)權(quán)重和激活的方式,Cerebras 不必?cái)U(kuò)展到系統(tǒng)中的多個(gè) GPU,然后擴(kuò)展到集群中的多個(gè) GPU 服務(wù)器。

8d2fa638-e1e2-11ee-a297-92fbcf53809c.png ?

除了代碼更改很容易之外,Cerebras 表示它的訓(xùn)練速度比 Meta GPU 集群更快。當(dāng)然,這只是理論上數(shù)據(jù),當(dāng)前還沒有任何 2048 個(gè) CS-3 集群已經(jīng)投入運(yùn)行,而 Meta 已經(jīng)有了 AI GPU 集群。

8d384e50-e1e2-11ee-a297-92fbcf53809c.png

Llama 70B Meta VS Cerebras CS-3 集群

04

Cerebras 與高通合作開發(fā)人工智能推理

Cerebras 和高通建立了合作伙伴關(guān)系,目標(biāo)是將推理成本降低 10 倍。Cerebras 表示,他們的解決方案將涉及應(yīng)用神經(jīng)網(wǎng)絡(luò)技術(shù),例如權(quán)重?cái)?shù)據(jù)壓縮等。該公司表示,經(jīng)過 Cerebras 訓(xùn)練的網(wǎng)絡(luò)將在高通公司的新型推理芯片AI 100 Ultra上高效運(yùn)行。

這項(xiàng)工作使用了四種主要技術(shù)來定制 Cerebras 訓(xùn)練的模型:

8d594312-e1e2-11ee-a297-92fbcf53809c.png

稀疏性是 Cerebras 的秘密武器之一,Cerebras 能夠在訓(xùn)練過程中利用動(dòng)態(tài)、非結(jié)構(gòu)化的稀疏性。高通的 Cloud AI100 具有對(duì)非結(jié)構(gòu)化稀疏性的硬件支持,這種稀疏協(xié)同可以使性能提高2.5倍。

推測(cè)解碼是一種前景廣闊但迄今為止難以有效實(shí)施的行業(yè)技術(shù),也被用來加快速度。這種技術(shù)使用一個(gè)大型LLM和一個(gè)小型LLM的組合來完成一個(gè)大型LLM的工作。小模型不太精確,但效率較高。大模型用于檢查小模型的合理性??傮w而言,組合效率更高,由于該技術(shù)總體上使用的計(jì)算量較少,因此速度可以提高 1.8 倍。

權(quán)重壓縮為 MxFP6,這是一種行業(yè) 6 位微指數(shù)格式,與 FP16 相比,可節(jié)省 39% 的 DRAM 空間。高通的編譯器將權(quán)重從 FP32 或 FP16 壓縮為 MxFP6,Cloud AI100 的矢量引擎在軟件中執(zhí)行即時(shí)解壓縮到 FP16。該技術(shù)可以將推理速度提高 2.2 倍。

神經(jīng)架構(gòu)搜索(NAS)是一種推理優(yōu)化技術(shù)。該技術(shù)在訓(xùn)練期間考慮了目標(biāo)硬件(Qualcomm Cloud AI 100)的優(yōu)點(diǎn)和缺點(diǎn),以支持在該硬件上高效運(yùn)行的層類型、操作和激活函數(shù)。Cerebras 和 Qualcomm 在 NAS 方面的工作使推理速度提高了一倍。




審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5299

    瀏覽量

    106309
  • 晶體管
    +關(guān)注

    關(guān)注

    77

    文章

    10015

    瀏覽量

    141544
  • AI芯片
    +關(guān)注

    關(guān)注

    17

    文章

    1983

    瀏覽量

    35885
  • 人工智能芯片
    +關(guān)注

    關(guān)注

    1

    文章

    121

    瀏覽量

    29784
  • DDR5
    +關(guān)注

    關(guān)注

    1

    文章

    444

    瀏覽量

    24874

原文標(biāo)題:初創(chuàng)公司Cerebras 推出 WSE-3 AI 芯片,聲稱“吊打”英偉達(dá) H100

文章出處:【微信號(hào):SDNLAB,微信公眾號(hào):SDNLAB】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    GPU 維修干貨 | 英偉達(dá) GPU H100 常見故障有哪些?

    上漲,英偉達(dá)H100GPU憑借其強(qiáng)大的算力,成為AI訓(xùn)練、高性能計(jì)算領(lǐng)域的核心硬件。然而,隨著使用場(chǎng)景的復(fù)雜化,H100服務(wù)器故障率也逐漸攀升,輕則影響業(yè)務(wù)進(jìn)度,重
    的頭像 發(fā)表于 05-05 09:03 ?920次閱讀
    GPU 維修干貨 | 英偉達(dá) GPU <b class='flag-5'>H100</b> 常見故障有哪些?

    NVIDIA 與行業(yè)領(lǐng)先的存儲(chǔ)企業(yè)共同推出面向 AI 時(shí)代的新型企業(yè)基礎(chǔ)設(shè)施

    3 月 18 日 —— NVIDIA 今日推出NVIDIA AI 數(shù)據(jù)平臺(tái) —— 一項(xiàng)可自定義的參考設(shè)計(jì),領(lǐng)先的存儲(chǔ)提供商可用來構(gòu)建全
    發(fā)表于 03-19 10:11 ?243次閱讀
    <b class='flag-5'>NVIDIA</b> 與行業(yè)領(lǐng)先的存儲(chǔ)企業(yè)共同<b class='flag-5'>推出</b>面向 <b class='flag-5'>AI</b> 時(shí)代的新型企業(yè)基礎(chǔ)設(shè)施

    英偉達(dá)A100H100比較

    英偉達(dá)A100H100都是針對(duì)高性能計(jì)算和人工智能任務(wù)設(shè)計(jì)的GPU,但在性能和特性上存在顯著差異。以下是對(duì)這兩款GPU的比較: 1. 架構(gòu)與核心規(guī)格: A100: 架構(gòu): 基于Ampere架構(gòu)
    的頭像 發(fā)表于 02-10 17:05 ?4183次閱讀
    英偉達(dá)A<b class='flag-5'>100</b>和<b class='flag-5'>H100</b>比較

    晶科鑫SJK晶振在不同領(lǐng)域的應(yīng)用

    在科技時(shí)代,高性能芯片的需求日益增長(zhǎng)。據(jù)《財(cái)富》雜志報(bào)道,Cerebras Systems推出WSE-3 AI
    的頭像 發(fā)表于 02-07 18:03 ?645次閱讀

    NVIDIA推出個(gè)人AI超級(jí)計(jì)算機(jī)Project DIGITS

    NVIDIA 推出個(gè)人 AI 超級(jí)計(jì)算機(jī) NVIDIA Project DIGITS,全球的 AI 研究員、數(shù)據(jù)科學(xué)家和學(xué)生都可獲取
    的頭像 發(fā)表于 01-08 11:03 ?806次閱讀

    NVIDIA推出多個(gè)生成式AI模型和藍(lán)圖

    NVIDIA 宣布推出多個(gè)生成式 AI 模型和藍(lán)圖,將 NVIDIA Omniverse 一體化進(jìn)一步擴(kuò)展至物理 AI 應(yīng)用,如機(jī)器人、自動(dòng)
    的頭像 發(fā)表于 01-08 10:48 ?616次閱讀

    Supermicro推出直接液冷優(yōu)化的NVIDIA Blackwell解決方案

    機(jī)架中的NVIDIA HGX B200 8-GPU系統(tǒng)數(shù)量,與Supermicro目前領(lǐng)先業(yè)界的搭載NVIDIA HGX H100H200的液冷型SuperCluster相比,GPU
    發(fā)表于 11-25 10:39 ?778次閱讀
    Supermicro<b class='flag-5'>推出</b>直接液冷優(yōu)化的<b class='flag-5'>NVIDIA</b> Blackwell解決方案

    華迅光通AI計(jì)算加速800G光模塊部署

    ,都需要更多的光模塊來進(jìn)行光纖通信。對(duì)于使用gpu的廣泛AI訓(xùn)練應(yīng)用,在NVIDIA的DGX H100服務(wù)器中,集成了8個(gè)H100 gpu,對(duì)計(jì)算和存儲(chǔ)網(wǎng)絡(luò)的需求相當(dāng)于大約12個(gè)800
    發(fā)表于 11-13 10:16

    英偉達(dá)H100芯片市場(chǎng)降溫

    隨著英偉達(dá)新一代AI芯片GB200需求的不斷攀升,其上一代明星產(chǎn)品H100芯片卻遭遇了市場(chǎng)的冷落。據(jù)業(yè)內(nèi)人士透露,搭載H100的服務(wù)器通常以
    的頭像 發(fā)表于 10-28 15:42 ?1589次閱讀

    英偉達(dá)發(fā)布AI模型 Llama-3.1-Nemotron-51B AI模型

    模型在單個(gè)H100 GPU上的表現(xiàn)非常優(yōu)秀,在推理過程中可以在單個(gè) GPU 上運(yùn)行 4 以上的工作負(fù)載。這使得單片H100 GPU即可處理更大型的推理任務(wù);
    的頭像 發(fā)表于 09-26 17:30 ?915次閱讀

    英特爾發(fā)布Gaudi3 AI加速器,押注低成本優(yōu)勢(shì)挑戰(zhàn)市場(chǎng)

    英特爾近期震撼發(fā)布了專為AI工作負(fù)載設(shè)計(jì)的Gaudi3加速器,這款新芯片雖在速度上不及英偉達(dá)熱門型號(hào)H100H200 GPU,但英特爾巧妙
    的頭像 發(fā)表于 09-26 16:16 ?1176次閱讀

    創(chuàng)業(yè)公司轉(zhuǎn)向RTX 4090因NVIDIA中國(guó)特供芯片價(jià)格高昂

    8月14日最新消息指出,據(jù)多方媒體報(bào)道,NVIDIA的A100H100等高端芯片因受限已有一年半之久,盡管公司隨后推出了專為中國(guó)市場(chǎng)設(shè)計(jì)的
    的頭像 發(fā)表于 08-15 14:28 ?872次閱讀

    氟化液 | 液冷在AI芯片降溫的應(yīng)用

    已突破350W,NVIDIAH100系列GPU芯片TDP更是達(dá)到700W,B100TDP或?qū)⑦_(dá)到1000W左右。英偉達(dá)GTC大會(huì)上,英偉達(dá)CEO黃仁勛發(fā)布了更高
    的頭像 發(fā)表于 07-27 08:10 ?1179次閱讀
    氟化液 | 液冷在<b class='flag-5'>AI</b><b class='flag-5'>芯片</b>降溫的應(yīng)用

    NVIDIA攜手Meta推出AI服務(wù),為企業(yè)提供生成式AI服務(wù)

    NVIDIA近日宣布了一項(xiàng)重大舉措,正式推出NVIDIA AI Foundry服務(wù)與NVIDIA NIM(
    的頭像 發(fā)表于 07-25 16:57 ?839次閱讀

    英偉達(dá)推出全新NVIDIA AI Foundry服務(wù)和NVIDIA NIM推理微服務(wù)

    NVIDIA 宣布推出全新 NVIDIA AI Foundry 服務(wù)和 NVIDIA NIM 推理微服務(wù),與同樣剛
    的頭像 發(fā)表于 07-25 09:48 ?1052次閱讀