電子發(fā)燒友網(wǎng)報(bào)道(文/梁浩斌)英偉達(dá)今年以來股價(jià)漲幅超過200%,這足以說明在AI算力需求下對(duì)GPU等算力硬件的需求到底會(huì)有多大。而除了GPU之外,在數(shù)據(jù)中心的AI訓(xùn)練中,AI服務(wù)器集群對(duì)于數(shù)據(jù)傳輸?shù)乃俾室笠蚕喈?dāng)高,隨著數(shù)據(jù)中心規(guī)模的增大,新的架構(gòu)也對(duì)光模塊的使用量有了指數(shù)級(jí)的增長。
光模塊的速率在過去10年間發(fā)展迅速,在2015年之前,數(shù)據(jù)中心光模塊普遍以10G和40G為主;2016年開始,25G和100G光模塊開始部署;2019年100G光模塊已經(jīng)實(shí)現(xiàn)廣泛應(yīng)用,200G和400G產(chǎn)品開始出貨;到2022年,200G和400G產(chǎn)品已經(jīng)大規(guī)模部署,800G光模塊開始進(jìn)入量產(chǎn)導(dǎo)入階段。
為什么需要800G光模塊?
首先光模塊在數(shù)據(jù)中心的應(yīng)用,主要是用于數(shù)據(jù)傳輸,通常在數(shù)據(jù)中心領(lǐng)域,會(huì)將數(shù)據(jù)中心外部用戶與內(nèi)部服務(wù)器之間傳輸?shù)臄?shù)據(jù)稱為南北向流量;而數(shù)據(jù)中心與數(shù)據(jù)中心之間,以及數(shù)據(jù)中心與內(nèi)部服務(wù)器之間互相傳輸?shù)臄?shù)據(jù)被稱為東西向流量。
隨著數(shù)據(jù)中心數(shù)據(jù)容量的增大,根據(jù)思科的預(yù)測(cè),2021年東西向流量會(huì)占到總體數(shù)據(jù)中心流量的85%,其中數(shù)據(jù)中心內(nèi)部服務(wù)器流量占71.5%,數(shù)據(jù)中心之間的流量占13.6%。但要注意的是,這個(gè)預(yù)測(cè)是在AI大模型熱潮之前所進(jìn)行的,因此自2022年底ChatGPT引爆的AI大模型市場(chǎng)后,東西向流量以及數(shù)據(jù)中心內(nèi)部服務(wù)器流量的占比仍將會(huì)進(jìn)一步提高。
數(shù)據(jù)中心計(jì)算規(guī)模,以及東西向流量的不斷膨脹,數(shù)據(jù)中心網(wǎng)絡(luò)架構(gòu)也在不斷變化。而在傳統(tǒng)的三層拓?fù)浣Y(jié)構(gòu)中,服務(wù)器與服務(wù)器之間的數(shù)據(jù)交換,需要經(jīng)過接入交換機(jī)、匯聚交換機(jī)以及核心交換機(jī)才能完成,這給匯聚交換機(jī)以及核心交換機(jī)帶來了巨大的工作壓力。
圖源:HPE Aruba
如果按照傳統(tǒng)三層拓?fù)浼軜?gòu)繼續(xù)擴(kuò)大服務(wù)器集群規(guī)模,那么則需要在核心層和匯聚層部署極高性能的設(shè)備,設(shè)備成本會(huì)顯著增加。那么這個(gè)時(shí)候就有了新的葉脊拓?fù)浼軜?gòu)出現(xiàn)了,它在傳統(tǒng)的三層拓?fù)浼軜?gòu)上進(jìn)行了扁平化,變成了兩層架構(gòu)。
其中葉交換機(jī)相當(dāng)于傳統(tǒng)三層架構(gòu)中的接入層交換機(jī),與服務(wù)器直接進(jìn)行連接。脊交換機(jī)相當(dāng)于核心層交換機(jī),但脊交換機(jī)與葉交換機(jī)直接連接,并且一臺(tái)脊交換機(jī)需要與所有葉交換機(jī)進(jìn)行連接。
所以葉交換機(jī)的數(shù)量取決于交換機(jī)下行端口數(shù)量,同時(shí)葉交換機(jī)的上行端口數(shù)量又取決于脊交換機(jī)的數(shù)量。
葉脊架構(gòu)大大提高了服務(wù)器之間數(shù)據(jù)傳輸?shù)男?,且?dāng)服務(wù)器數(shù)量需要擴(kuò)展時(shí),只需增加脊交換機(jī)數(shù)量,加強(qiáng)了數(shù)據(jù)中心的擴(kuò)展性。唯一的問題是,相比傳統(tǒng)三層拓?fù)浼軜?gòu),葉脊架構(gòu)所需的端口數(shù)量同樣大大增加。相應(yīng)地,服務(wù)器與交換機(jī)都需要更多的光模塊來進(jìn)行光纖通信。
從需求量來看,按照國泰君安證券的數(shù)據(jù),以1000個(gè)機(jī)柜的中大型數(shù)據(jù)中心計(jì)算,傳統(tǒng)三層拓?fù)浼軜?gòu)中,大約需要128000個(gè)10G光模塊、160個(gè)40G光模塊和8個(gè)100G光模塊;葉脊架構(gòu)下,這個(gè)數(shù)據(jù)中心需要的光模塊數(shù)量則為120000個(gè)10G、4800個(gè)40G、32個(gè)100G。
對(duì)于大量應(yīng)用到GPU的AI訓(xùn)練而言,在英偉達(dá)DGX H100服務(wù)器中,集成了8顆H100 GPU,僅計(jì)算和存儲(chǔ)網(wǎng)絡(luò)對(duì)應(yīng)的需求約為12個(gè)800G光模塊、18個(gè)400G光模塊。
可以看出,葉脊架構(gòu)下數(shù)據(jù)中心所需的高速率光模塊數(shù)量成指數(shù)級(jí)增加,隨著數(shù)據(jù)中心的規(guī)模擴(kuò)大,特別是AI大模型訓(xùn)練的需求下,GPU服務(wù)器更高的傳輸速率需求,讓800G光模塊加快了落地的速度。
光模塊玩家加速布局
GPU作為AI算力基座,以英偉達(dá)為首的廠商已經(jīng)供不應(yīng)求,此前有消息稱訂單能見度已經(jīng)排至2024年。在GPU的需求確定性強(qiáng)的情況下,光模塊市場(chǎng)也必然會(huì)跟隨得到上漲空間。
在800G光模塊領(lǐng)域,目前全球頭部廠商基本上都在加緊布局。根據(jù)Lightcounting的數(shù)據(jù),2022年全球光模塊供應(yīng)商Top 10中,中際旭創(chuàng)、華為海思、光迅科技、海信、新易盛、華工科技等中國廠商分列第1、4、5、6、7、8名,占據(jù)前十中的6個(gè)名額。另外四名分別是與中際旭創(chuàng)并列第一的Coherent(II-VI收購Coherent后合并命名)、排名第三的思科、排名第九的英特爾以及排名第十的索爾思光電。
中際旭創(chuàng)早在2020年底就推出了業(yè)界首個(gè)800G可插拔OSFP和QSFP-DD800系列光模塊,包括4x100Gx2和8x100G兩種架構(gòu)方案;2022年在OFC2022現(xiàn)場(chǎng)展示基于自主設(shè)計(jì)硅光芯 800G可插拔 OSFP2*FR4和QSFP-DD 800G DR8+硅光光模塊;2023年3月,公司于OFC展會(huì)上推出全球首款1.6T光模塊。
近期中際旭創(chuàng)表示,公司800G光模塊已在2023年上半年逐步起量,已向海外重點(diǎn)客戶持續(xù)交付與GPU相配套的800G產(chǎn)品,但更多的客戶需求和訂單交付預(yù)計(jì)會(huì)在2023年下半年以及2024年。
Coherent今年3月也展示了基于200G單通道的800G/1.6T收發(fā)器,公司在一季度財(cái)報(bào)會(huì)議上表示800G光模塊的出貨正在加速,預(yù)計(jì)從24年開始呈現(xiàn)指數(shù)級(jí)增長。
光迅科技在OFC 2023首次展出基于50GBd VCSEL技術(shù)的800G QSFP-DD800 SR8光模塊。不過光迅科技近期表示,目前800G產(chǎn)品已小批量出貨,但銷售占公司總體營收比例不高,預(yù)計(jì)今年800G光模塊的量不會(huì)很大。
同在OFC 2023上,海信寬帶推出了業(yè)內(nèi)首款800G QSFP-DD BiDi SR4.2光模塊產(chǎn)品,同時(shí)展示其他基于PAM4碼型的800G系列光模塊產(chǎn)品,包括800G QSFP-DD SR8/AOC,800G OSFP SR8/AOC,800G OSFP 2xFR4/DR8和800G QSFP-DD 2xFR4/DR8等產(chǎn)品,已具備完備的產(chǎn)品陣列。
新易盛在2021年就推出了其800G光模塊產(chǎn)品組合,包括基于EML和SiPh的解決方案,產(chǎn)品組合由AOC和SM光模塊組成,有OSFP和QSFP-DD800兩種外形尺寸,傳輸距離覆蓋30m-2km。OFC 2023上新易盛展示了最新的基于薄膜鈮酸鋰調(diào)制器TFLN技術(shù)的800G OSFP DR8,配合5nm DSP以及集成的TIA實(shí)現(xiàn)11.2W的業(yè)界領(lǐng)先功耗水平。近期公司表示,部分800G光模塊產(chǎn)品已實(shí)現(xiàn)小批量出貨。
華工科技子公司華工正源去年發(fā)布了800G硅光模塊系列產(chǎn)品,數(shù)據(jù)中心側(cè)涵蓋800G DR8 SiPh/2*FR4/SR8/DR8等,采用OSFP封裝,模塊全溫功耗小于15W。華工科技在近期的投資者交流中表示,目前公司800G光模塊已與北美頭部客戶進(jìn)行了良好的溝通和對(duì)接,并向客戶進(jìn)行了產(chǎn)品送樣,預(yù)計(jì)出貨量將在23年下半年快速增長。
小結(jié)
800G光模塊在GPU訂單需求的確定性環(huán)境下,將會(huì)從今年下半年開始進(jìn)入大規(guī)模出貨階段。作為AI算力的橋梁,800G光模塊隨著數(shù)據(jù)中心的規(guī)模擴(kuò)大,AI訓(xùn)練的需求持續(xù)增長,市場(chǎng)規(guī)模增速以及落地速度將持續(xù)加速。而布局較早的玩家,也能夠更早享受到算力需求帶來的市場(chǎng)紅利。
-
AI
+關(guān)注
關(guān)注
87文章
33554瀏覽量
274195 -
光模塊
+關(guān)注
關(guān)注
80文章
1355瀏覽量
59868
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
AI算力革命驅(qū)動(dòng)光模塊產(chǎn)業(yè)躍遷:800G規(guī)?;渴鹋c1.6T技術(shù)競(jìng)速下的市場(chǎng)新紀(jì)元
適用于數(shù)據(jù)中心和AI時(shí)代的800G網(wǎng)絡(luò)
DeepSeek推動(dòng)AI算力需求:800G光模塊的關(guān)鍵作用
算力革命倒逼光通信技術(shù)迭代:800G光模塊為何成為剛需?
800G光模塊:引領(lǐng)未來數(shù)據(jù)中心與網(wǎng)絡(luò)通信的新引擎
800G光模塊:AI網(wǎng)絡(luò)解決方案的強(qiáng)大力量
為什么400G光模塊和800G光模塊如此火爆?
800G光模塊:滿足高速數(shù)據(jù)傳輸需求的必然選擇

數(shù)據(jù)中心與AI人工智能的基礎(chǔ)設(shè)施保障:800G光模塊
800G光模塊:高速通信的關(guān)鍵力量
800G光模塊:超算中心、智算中心、大規(guī)模數(shù)據(jù)中心基石
未來網(wǎng)絡(luò)的高速引擎:800G光模塊市場(chǎng)預(yù)測(cè)與應(yīng)用前景
華迅光通AI計(jì)算加速800G光模塊部署
ADOP帶你了解:800G收發(fā)器的技術(shù)方案

400G SR4和800G SR8光模塊在AI集群中的應(yīng)用

評(píng)論