?? ??在2023年投資者會(huì)議上,Nvidia展示了其全新的GPU發(fā)展藍(lán)圖?[1]。與以往兩年一次的更新節(jié)奏不同,這次的路線圖將演進(jìn)周期縮短至一年。預(yù)計(jì)在2024年,Nvidia將推出H200和B100 GPU;到2025年,X100 GPU也將面世。其AI芯片規(guī)劃的戰(zhàn)略核心是“One Architecture”統(tǒng)一架構(gòu),支持在任何地方進(jìn)行模型訓(xùn)練和部署,無(wú)論是數(shù)據(jù)中心還是邊緣設(shè)備,無(wú)論是x86架構(gòu)還是Arm架構(gòu)。其解決方案適用于超大規(guī)模數(shù)據(jù)中心的訓(xùn)練任務(wù),也可以滿足企業(yè)級(jí)用戶的邊緣計(jì)算需求。
AI芯片從兩年一次的更新周期轉(zhuǎn)變?yōu)橐荒暌淮蔚母轮芷?,反映了?a target="_blank">產(chǎn)品開(kāi)發(fā)速度的加快和對(duì)市場(chǎng)變化的快速響應(yīng)。其AI芯片布局涵蓋了訓(xùn)練和推理兩個(gè)人工智能關(guān)鍵應(yīng)用,訓(xùn)練推理融合,并側(cè)重推理。同時(shí)支持x86和Arm兩種不同硬件生態(tài)。在市場(chǎng)定位方面,同時(shí)面向超大規(guī)模云計(jì)算和企業(yè)級(jí)用戶,以滿足不同需求。Nvidia旨在通過(guò)統(tǒng)一的架構(gòu)、廣泛的硬件支持、快速的產(chǎn)品更新周期以及面向不同市場(chǎng)提供全面的差異化的AI解決方案,從而在人工智能領(lǐng)域保持技術(shù)和市場(chǎng)的領(lǐng)先地位。Nvidia是一個(gè)同時(shí)擁有 GPU、CPU和DPU的計(jì)算芯片和系統(tǒng)公司。Nvidia通過(guò)NVLink、NVSwitch和NVLink C2C技術(shù)將CPU、GPU進(jìn)行靈活連接組合形成統(tǒng)一的硬件架構(gòu),并于CUDA一起形成完整的軟硬件生態(tài)。
在AI計(jì)算芯片架構(gòu)方面,注重訓(xùn)練和推理功能的整合,側(cè)重推理。圍繞GPU打造ARM和X86兩條技術(shù)路線。在Nvidia的AI路線圖中,并沒(méi)有顯示提及Grace CPU的技術(shù)路線,而是將其納入Grace+GPU的SuperChip超級(jí)芯片路標(biāo)中。
Nvidia Grace CPU會(huì)跟隨GPU的演進(jìn)節(jié)奏并與其組合成新一代超級(jí)芯片;而其自身也可能根據(jù)市場(chǎng)競(jìng)爭(zhēng)的需求組合成CPU超級(jí)芯片,實(shí)現(xiàn)“二打一”的差異化競(jìng)爭(zhēng)力。從需求角度來(lái)看,CPU的技術(shù)演進(jìn)速度并不像GPU那樣緊迫,并且CPU對(duì)于成本更加敏感。CPU只需按照“摩爾”或“系統(tǒng)摩爾”,以每?jī)赡晷阅芊兜乃俣冗M(jìn)行演進(jìn)即可。而GPU算力需要不到一年就要實(shí)現(xiàn)性能翻倍,保持每年大約2.5倍的速率增長(zhǎng)。這種差異催生了超級(jí)芯片和超節(jié)點(diǎn)的出現(xiàn)。
Nvidia將延用SuperChip超級(jí)芯片架構(gòu),NVLink-C2C和NVLink互聯(lián)技術(shù)在Nvidia未來(lái)的AI芯片架構(gòu)中將持續(xù)發(fā)揮關(guān)鍵作用。其利用NVLink-C2C互聯(lián)技術(shù)構(gòu)建GH200、GB200和GX200超級(jí)芯片。更進(jìn)一步,通過(guò)NVLink互聯(lián)技術(shù),兩顆GH200、GB200和GX200可以背靠背連接,形成GH200NVL、GB200NVL和GX200NVL模組。Nvidia可以通過(guò)NVLink網(wǎng)絡(luò)組成超節(jié)點(diǎn),通過(guò)InfiniBand或Ethernet網(wǎng)絡(luò)組成更大規(guī)模的AI集群。
在交換芯片方面,仍然堅(jiān)持InfiniBand和Ethernet兩條開(kāi)放路線,瞄準(zhǔn)不同市場(chǎng),前者瞄準(zhǔn)AI Factory,后者瞄準(zhǔn)AIGC Cloud。但其并未給出NVLink和NVSwitch自有生態(tài)的明確計(jì)劃。224G代際的速度提升,可能率先NVLink和NVSwitch上落地。以InfiniBand為基礎(chǔ)的Quantum系列和以Ethernet基礎(chǔ)的Spectrum-X系列持續(xù)升級(jí)。預(yù)計(jì)到2024年,將商用基于100G SerDes的800G接口的交換芯片;而到2025年,將迎來(lái)基于200G SerDes的1.6T接口的交換芯片。其中800G對(duì)應(yīng)51.2T交換容量的Spectrum-4芯片,而1.6T則對(duì)應(yīng)下一代Spectrum-5,其交換容量可能高達(dá)102.4T。從演進(jìn)速度上看,224G代際略有提速,但從長(zhǎng)時(shí)間周期上看,其仍然遵循著SerDes速率大約3到4年翻倍、交換芯片容量大約2年翻倍的規(guī)律。雖然有提到2024年Quantum將會(huì)升級(jí)到800G,但目前我們只能看到2021年發(fā)布的基于7nm工藝,400G接口的25.6T Quantum-2交換芯片。路線圖中并未包含NVSwitch 4.0和NVLink 5.0的相關(guān)計(jì)劃。有預(yù)測(cè)指出Nvidia可能會(huì)首先在NVSwitch和NVLink中應(yīng)用224G SerDes技術(shù)。NVLink和NVSwitch作為Nvidia自有生態(tài),不會(huì)受到標(biāo)準(zhǔn)生態(tài)的掣肘,在推出時(shí)間和技術(shù)路線選擇上更靈活,從而實(shí)現(xiàn)差異化競(jìng)爭(zhēng)力。
SmartNIC智能網(wǎng)卡/DPU數(shù)據(jù)處理引擎的下一跳ConnectX-8/BlueField-4目標(biāo)速率為 800G,與1.6T Quantum和Spectrum-X配套的SmartNIC和DPU的路標(biāo)仍不明晰,NVLink5.0和NVSwitch4.0可能提前發(fā)力。Nvidia ConnectX系列SmartNIC智能網(wǎng)卡與InfiniBand技術(shù)相結(jié)合,可以在基于NVLink網(wǎng)絡(luò)的超節(jié)點(diǎn)基礎(chǔ)上構(gòu)建更大規(guī)模的AI集群。而BlueField DPU則主要面向云數(shù)據(jù)中心場(chǎng)景,與Ethernet技術(shù)結(jié)合,提供更強(qiáng)大的網(wǎng)絡(luò)基礎(chǔ)設(shè)施能力。相較于NVLink總線域網(wǎng)絡(luò),InfiniBand和Ethernet屬于傳統(tǒng)網(wǎng)絡(luò)技術(shù),兩種網(wǎng)絡(luò)帶寬比例大約為1比9。例如,H00 GPU用于連接SmartNIC和DPU的PCIE帶寬為128GB/s,考慮到PCIE到Ethernet的轉(zhuǎn)換,其最大可以支持400G InfiniBand或者Ethernet接口,而NVLink雙向帶寬為900GB/s或者3.6Tbps,因此傳統(tǒng)網(wǎng)絡(luò)和總線域網(wǎng)絡(luò)的帶寬比為1比9。雖然SmartNIC和DPU的速率增長(zhǎng)需求沒(méi)有總線域網(wǎng)絡(luò)的增速快,但它們與大容量交換芯片需要保持同步的演進(jìn)速度。它們也受到由IBTA (InfiniBand)?和IEEE802.3 (Ethernet)?定義互通標(biāo)準(zhǔn)的產(chǎn)業(yè)生態(tài)成熟度的制約。
互聯(lián)技術(shù)在未來(lái)的計(jì)算系統(tǒng)的擴(kuò)展中起到至關(guān)重要的作用。Nvidia同步布局的還有LinkX系列光電互聯(lián)技術(shù)。包括傳統(tǒng)帶oDSP引擎的可插拔光互聯(lián)?(Pluggable Optics),線性直驅(qū)光互聯(lián)LPO (Linear Pluggable Optics),傳統(tǒng)DAC電纜、重驅(qū)動(dòng)電纜?(Redrived Active Copper Cable)、芯片出光?(Co-Packaged Optics)?等一系列光電互聯(lián)技術(shù)。隨著超節(jié)點(diǎn)和集群網(wǎng)絡(luò)的規(guī)模不斷擴(kuò)大,互聯(lián)技術(shù)將在未來(lái)的AI計(jì)算系統(tǒng)中發(fā)揮至關(guān)重要的作用,需要解決帶寬、時(shí)延、功耗、可靠性、成本等一系列難題。
對(duì)Nvidia而言,來(lái)自Google、Meta、AMD、Microsoft和Amazon等公司的競(jìng)爭(zhēng)壓力正在加大。這些公司在軟件和硬件方面都在積極發(fā)展,試圖挑戰(zhàn)Nvidia在該領(lǐng)域的主導(dǎo)地位,這或許是Nvidia提出相對(duì)激進(jìn)技術(shù)路線圖的原因。Nvidia為了保持其市場(chǎng)地位和利潤(rùn)率,采取了一種大膽且風(fēng)險(xiǎn)重重的多管齊下的策略。他們的目標(biāo)是超越傳統(tǒng)的競(jìng)爭(zhēng)對(duì)手如Intel和AMD,成為科技巨頭,與Google、Microsoft、Amazon、Meta和Apple等公司并駕齊驅(qū)。Nvidia的計(jì)劃包括推出H200、B100和“X100”GPU,以及進(jìn)行每年度更新的AI GPU。此外,他們還計(jì)劃推出HBM3E高速存儲(chǔ)器、PCIE 6.0和PCIE 7.0、以及NVLink、224G SerDes、1.6T接口等先進(jìn)技術(shù),如果計(jì)劃成功,Nvidia將超越所有潛在的競(jìng)爭(zhēng)對(duì)手?[2]。
盡管硬件和芯片領(lǐng)域的創(chuàng)新不斷突破,但其發(fā)展仍然受到第一性原理的限制,存在天然物理邊界的約束。通過(guò)深入了解工藝制程、先進(jìn)封裝、內(nèi)存和互聯(lián)等多個(gè)技術(shù)路線,可以推斷出未來(lái)Nvidia可能采用的技術(shù)路徑。盡管基于第一性原理的推演成功率高,但仍需考慮非技術(shù)因素的影響。例如,通過(guò)供應(yīng)鏈控制,在一定時(shí)間內(nèi)壟斷核心部件或技術(shù)的產(chǎn)能,如HBM、TSMC CoWoS先進(jìn)封裝工藝等,可以影響技術(shù)演進(jìn)的節(jié)奏。根據(jù)Nvidia 2023年Q4財(cái)報(bào),該公司季度收入達(dá)到76.4億美元,同比增長(zhǎng)53%,創(chuàng)下歷史新高。全年收入更是增長(zhǎng)61%,達(dá)到269.1億美元的紀(jì)錄。數(shù)據(jù)中心業(yè)務(wù)在第四季度貢獻(xiàn)了32.6億美元的收入,同比增長(zhǎng)71%,環(huán)比增長(zhǎng)11%。財(cái)年全年數(shù)據(jù)中心收入增長(zhǎng)58%,達(dá)到創(chuàng)紀(jì)錄的106.1億美元?[3]。因此Nvidia擁有足夠大的現(xiàn)金流可以在短時(shí)間內(nèi)對(duì)供應(yīng)鏈,甚至產(chǎn)業(yè)鏈?zhǔn)┘佑绊憽A硗?,也存在一些黑天鵝事件也可能產(chǎn)生影響,比如以色列和哈馬斯的戰(zhàn)爭(zhēng)就導(dǎo)致了Nvidia取消了原定于10月15日和16日舉行的AI SUMMIT [4]。業(yè)界原本預(yù)期,Nvidia將于峰會(huì)中展示下一代B100 GPU芯片?[5]。值得注意的是,Nvidia的網(wǎng)絡(luò)部門前身Mellanox正位于以色列。
為了避免陷入不可知論,本文的分析主要基于物理規(guī)律的第一性原理,而不考慮經(jīng)濟(jì)手段(例如控制供應(yīng)鏈)和其他可能出現(xiàn)的黑天鵝事件(例如戰(zhàn)爭(zhēng))等不確定性因素。當(dāng)然,這些因素有可能在技術(shù)鏈條的某個(gè)環(huán)節(jié)產(chǎn)生重大影響,導(dǎo)致技術(shù)或者產(chǎn)品演進(jìn)節(jié)奏的放緩,或者導(dǎo)致整個(gè)技術(shù)體系進(jìn)行一定的微調(diào),但不會(huì)對(duì)整個(gè)技術(shù)演進(jìn)趨勢(shì)產(chǎn)生顛覆式的影響??紤]到這些潛在的變化,本文的分析將盡量采取一種客觀且全面的方式來(lái)評(píng)估這些可能的技術(shù)路徑。我們將以“如果 A 那么 X;如果 B 那么 Y;…”的形式進(jìn)行思考和分析,旨在涵蓋所有可能影響技術(shù)發(fā)展的因素,以便提供更準(zhǔn)確、更全面的分析結(jié)果。此外,本文分析是基于兩到三年各個(gè)關(guān)鍵技術(shù)的路標(biāo)假設(shè),即2025年之前。當(dāng)相應(yīng)的前提條件變化,相應(yīng)的結(jié)論也應(yīng)該作適當(dāng)?shù)恼{(diào)整,但是整體的分析思路是普適的。
Nvidia的AI布局
Nvidia在人工智能領(lǐng)域的布局堪稱全面,其以系統(tǒng)和網(wǎng)絡(luò)、硬件和軟件為三大支柱,構(gòu)建起了深厚的技術(shù)護(hù)城河?[6]。有分析稱Nvidia的H100顯卡有高達(dá)90%的毛利率。Nvidia通過(guò)扶持像Coreweave這樣的GPU云服務(wù)商,利用供貨合同讓他們從銀行獲取資金,然后購(gòu)買更多的H100顯卡,鎖定未來(lái)的顯卡需求量。這種模式已經(jīng)超出傳統(tǒng)硬件公司的商業(yè)模式,套用馬克思在資本論中所述“金銀天然不是貨幣,貨幣天然是金銀。”,有人提出了“貨幣天然不是H100,但H100天然是貨幣”的說(shuō)法?[7]。這一切的背后在于對(duì)于對(duì)未來(lái)奇點(diǎn)臨近的預(yù)期?[8],在于旺盛的需求,同時(shí)更在于其深厚的技術(shù)護(hù)城河。
Nvidia 2019年3月發(fā)起對(duì)Mellanox的收購(gòu)?[9],并且于2020年4月完成收購(gòu)?[10],經(jīng)過(guò)這次收購(gòu)Nvidia獲取了InfiniBand、Ethernet、SmartNIC、DPU及LinkX互聯(lián)的能力。面向GPU互聯(lián),自研NVLink互聯(lián)和NVLink網(wǎng)絡(luò)來(lái)實(shí)現(xiàn)GPU算力Scale Up擴(kuò)展,相比于基于InfiniBand網(wǎng)絡(luò)和基于Ethernet的RoCE網(wǎng)絡(luò)形成差異化競(jìng)爭(zhēng)力。NVLink自2014年推出以來(lái),已經(jīng)歷了四個(gè)代際的演進(jìn),從最初的2014年20G NVLink 1.0,2018年25G NVLink2.0,2020年50G NVLink 3.0?到2022年的100G NVLink 4.0,預(yù)計(jì)到2024年,NVLink將進(jìn)一步發(fā)展至200G NVLink 5.0。在應(yīng)用場(chǎng)景上,NVLink 1.0至3.0主要針對(duì)PCIE板內(nèi)和機(jī)框內(nèi)互聯(lián)的需求,通過(guò)SerDes提速在與PCIE互聯(lián)的競(jìng)爭(zhēng)中獲取顯著的帶寬優(yōu)勢(shì)。值得注意的是,除了NVLink1.0采用了20G特殊速率點(diǎn)以外,NVLink2.0~4.0皆采用了與Ethernet相同或者相近的頻點(diǎn),這樣做的好處是可以復(fù)用成熟的Ethernet互聯(lián)生態(tài),也為未來(lái)實(shí)現(xiàn)連接盒子或機(jī)框組成超節(jié)點(diǎn)埋下伏筆。NVSwitch 1.0、2.0、3.0分別與NVLink2.0、3.0、4.0配合,形成了NVLink總線域網(wǎng)絡(luò)的基礎(chǔ)。NVLink4.0配合NVSwitch3.0組成了超節(jié)點(diǎn)網(wǎng)絡(luò)的基礎(chǔ),這一變化的外部特征是NVSwitch脫離計(jì)算單板而單獨(dú)成為網(wǎng)絡(luò)設(shè)備,而NVLink則從板級(jí)互聯(lián)技術(shù)升級(jí)成為設(shè)備間互聯(lián)技術(shù)。
在計(jì)算芯片領(lǐng)域,Nvidia于2020年9月發(fā)起ARM收購(gòu),期望構(gòu)建人工智能時(shí)代頂級(jí)的計(jì)算公司?[11],這一收購(gòu)提案因?yàn)槊媾R重大監(jiān)管挑戰(zhàn)阻礙了交易的進(jìn)行,于2022年2月終止?[12]。但是,在同年3月其發(fā)布了基于ARM的Grace CPU Superchip超級(jí)芯片?[13]。成為同時(shí)擁有CPU、GPU和DPU的計(jì)算芯片和系統(tǒng)公司。
從業(yè)務(wù)視角看,Nvidia在系統(tǒng)和網(wǎng)絡(luò)、硬件、軟件三個(gè)方面占據(jù)了主導(dǎo)地位?[6]。系統(tǒng)和網(wǎng)絡(luò)、硬件、軟件這三個(gè)方面是人工智能價(jià)值鏈中許多大型參與者無(wú)法有效或快速?gòu)?fù)制的重要部分,這意味著Nvidia在整個(gè)生態(tài)系統(tǒng)中占據(jù)著主導(dǎo)地位。要擊敗Nvidia就像攻擊一個(gè)多頭蛇怪。必須同時(shí)切斷所有三個(gè)頭才有可能有機(jī)會(huì),因?yàn)樗拿總€(gè)“頭”都已經(jīng)是各自領(lǐng)域的領(lǐng)導(dǎo)者,并且Nvidia正在努力改進(jìn)和擴(kuò)大其護(hù)城河。在一批人工智能硬件挑戰(zhàn)者的失敗中,可以看到,他們都提供了一種與Nvidia GPU相當(dāng)或略好的硬件,但未能提供支持該硬件的軟件生態(tài)和解決可擴(kuò)展問(wèn)題的方案。而Nvidia成功地做到了這一切,并成功抵擋住了一次沖擊。這就是為什么Nvidia的戰(zhàn)略像是一個(gè)三頭水蛇怪,后來(lái)者必須同時(shí)擊敗他們?cè)谙到y(tǒng)和網(wǎng)絡(luò)、硬件以及軟件方面的技術(shù)和生態(tài)護(hù)城河。目前,進(jìn)入Nvidia平臺(tái)似乎能夠占據(jù)先機(jī)。OpenAI、微軟和Nvidia顯然處于領(lǐng)先地位。盡管Google和Amazon也在努力建立自己的生態(tài)系統(tǒng),但Nvidia提供了更完整的硬件、軟件和系統(tǒng)解決方案,使其成為最具吸引力的選擇。要贏得先機(jī),就必須進(jìn)入其硬件、軟件和系統(tǒng)級(jí)業(yè)務(wù)生態(tài)。然而,這也意味著進(jìn)一步被鎖定,未來(lái)更難撼動(dòng)其地位。從Google和Amazon等公司的角度來(lái)看,如果不選擇接入Nvidia的生態(tài)系統(tǒng),可能會(huì)失去先機(jī);而如果選擇接入,則可能意味著失去未來(lái)。
Nvidia布局了兩種類型網(wǎng)絡(luò),一種是傳統(tǒng)InfiniBand和Ethernet網(wǎng)絡(luò),另一種是NVLink總線域網(wǎng)絡(luò)。在傳統(tǒng)網(wǎng)絡(luò)中,Ethernet面向AIGC Cloud多AI訓(xùn)練和推理等云服務(wù),而InfiniBand面向AI Factory,滿足大模型訓(xùn)練和推理的應(yīng)用需求。在交換芯片布局方面,有基于開(kāi)放Ethernet增強(qiáng)的Spectrum-X交換芯片和基于InfiniBand的封閉高性能的Quantum交換芯片。當(dāng)前Ultra Ethernet Consortium (UEC)?正在嘗試定義基于Ethernet的開(kāi)放、互操作、高性能的全棧架構(gòu),以滿足不斷增長(zhǎng)的AI和HPC網(wǎng)絡(luò)需求?[14],旨在與Nvidia的網(wǎng)絡(luò)技術(shù)相抗衡。UEC的目標(biāo)是構(gòu)建一個(gè)類似于InfiniBand的開(kāi)放協(xié)議生態(tài),從技術(shù)層面可以理解為將Ethernet進(jìn)行增強(qiáng)以達(dá)到InfiniBand網(wǎng)絡(luò)的性能,或者說(shuō)是實(shí)現(xiàn)一種InfiniBand化的Ethernet。從某種意義上說(shuō)UEC在重走InfiniBand道路。總線域網(wǎng)絡(luò)NVLink的主要特征是要在超節(jié)點(diǎn)范圍內(nèi)實(shí)現(xiàn)內(nèi)存語(yǔ)義級(jí)通信和總線域網(wǎng)絡(luò)內(nèi)部的內(nèi)存共享,它本質(zhì)上是一個(gè)Load-Store網(wǎng)絡(luò),是傳統(tǒng)總線網(wǎng)絡(luò)規(guī)模擴(kuò)大以后的自然演進(jìn)。從NVLink接口的演進(jìn)歷程可以看出,其1.0~3.0版本明顯是對(duì)標(biāo)PCIE的,而4.0版本實(shí)際上對(duì)標(biāo)InfiniBand和Ethernet的應(yīng)用場(chǎng)景,但其主要目標(biāo)還是實(shí)現(xiàn)GPU的Scale Up擴(kuò)展。
從原始需求的角度來(lái)看,NVLink網(wǎng)絡(luò)在演進(jìn)過(guò)程中需要引入傳統(tǒng)網(wǎng)絡(luò)的一些基本能力,例如編址尋址、路由、均衡、調(diào)度、擁塞控制、管理控制和測(cè)量等。同時(shí),NVLink還需要保留總線網(wǎng)絡(luò)基本特征,如低時(shí)延、高可靠性、內(nèi)存統(tǒng)一編址共享以及內(nèi)存語(yǔ)義通信。這些特征是當(dāng)前InfiniBand或Ethernet網(wǎng)絡(luò)所不具備的或者說(shuō)欠缺的。與InfiniBand和Ethernet傳統(tǒng)網(wǎng)絡(luò)相比,NVLink總線域網(wǎng)絡(luò)的功能定位和設(shè)計(jì)理念存在著本質(zhì)上的區(qū)別。我們很難說(shuō)NVLink網(wǎng)絡(luò)和傳統(tǒng)InfiniBand網(wǎng)絡(luò)或者增強(qiáng)Ethernet網(wǎng)絡(luò)最終會(huì)殊途同歸。
Nvidia在AI集群競(jìng)爭(zhēng)態(tài)勢(shì)中展現(xiàn)出了全面布局,涵蓋了計(jì)算(芯片、超級(jí)芯片)和網(wǎng)絡(luò)(超節(jié)點(diǎn)、集群)領(lǐng)域。在計(jì)算芯片方面,Nvidia擁有CPU、GPU、CPU-CPU/CPU-GPU SuperChip等全面的布局;在超節(jié)點(diǎn)網(wǎng)絡(luò)層面,Nvidia提供了NVLink和InfiniBand兩種定制化網(wǎng)絡(luò)選項(xiàng);在集群網(wǎng)絡(luò)方面,Nvidia有基于Ethernet的交換芯片和DPU芯片布局。AMD緊隨其后,更專注于CPU和GPU計(jì)算芯片,并采用基于先進(jìn)封裝的Chiplet芯粒技術(shù)。
與Nvidia不同的是,AMD當(dāng)前沒(méi)有超級(jí)芯片的概念,而是采用了先進(jìn)封裝將CPU和GPU Die合封在一起。AMD使用私有的Infinity Fabric Link內(nèi)存一致接口進(jìn)行GPU、CPU、GPU和CPU間的互聯(lián),而GPU和CPU之間的互聯(lián)仍然保留傳統(tǒng)的PCIE連接方式。此外,AMD計(jì)劃推出XSwitch交換芯片,下一代MI450加速器將利用新的互連結(jié)構(gòu),其目的顯然是與Nvidia的NVSwitch競(jìng)爭(zhēng)?[15]。
BRCM則專注于網(wǎng)絡(luò)領(lǐng)域,在超節(jié)點(diǎn)網(wǎng)絡(luò)有對(duì)標(biāo)InfiniBand的Jericho3-AI+Ramon的DDC方案;在集群網(wǎng)絡(luò)領(lǐng)域有基于Ethernet的Tomahawk系列和Trident系列交換芯片。近期BRCM推出其新的軟件可編程交換Trident 5-X12集成了NetGNT神經(jīng)網(wǎng)絡(luò)引擎實(shí)時(shí)識(shí)別網(wǎng)絡(luò)流量信息,并調(diào)用擁塞控制技術(shù)來(lái)避免網(wǎng)絡(luò)性能下降,提高網(wǎng)絡(luò)效率和性能?[16]。Cerebras/Telsa Dojo則“劍走偏鋒”,走依賴“晶圓級(jí)先進(jìn)封裝”的深度定制硬件路線。
作者:陸玉春
審核編輯:黃飛
評(píng)論