一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

談?wù)凞eepSeek-v3提到的基礎(chǔ)設(shè)施演進(jìn)

OSC開源社區(qū) ? 來(lái)源:OSC開源社區(qū) ? 2025-01-02 10:04 ? 次閱讀

看DeepSeek-v3的感受是, 算法和Infra的非常緊密結(jié)合. 其實(shí)很多大模型團(tuán)隊(duì)的算法和Infra是非常割裂的, 完全同時(shí)懂算法和Infra的人并不多, DeepSeek這個(gè)團(tuán)隊(duì)就是其中之一, DeepSeek團(tuán)隊(duì)中應(yīng)該有不少OI競(jìng)賽獲獎(jiǎng)選手, 其實(shí)對(duì)于我們這些搞過(guò)OI的人, 對(duì)于計(jì)算上的優(yōu)化策略基本上都是手到擒來(lái),很多時(shí)候把處理器的體系結(jié)構(gòu)也研究的很深, 所以同時(shí)做算法和Infra是非常自然的一件事情, 而如今很多算法崗的新人大多數(shù)人的代碼能力是非常有限的....

當(dāng)然渣B稍微再得瑟一下, 比DeepSeek他們還更懂更底層的芯片以及它們的互聯(lián), Maybe再多懂一點(diǎn)數(shù)學(xué)... 昨天還跟一朋友講了一個(gè)冷玩笑, FP8訓(xùn)練這些Quantization不就是Quant變?cè)?"za"tion)么,^o^.

1. 算力不再應(yīng)當(dāng)只是約束,而是一個(gè)可以聯(lián)合優(yōu)化的變量

其實(shí)很多年前, 阿里媽媽團(tuán)隊(duì)就在推薦系統(tǒng)引入深度學(xué)習(xí)時(shí)做過(guò)大量的算法和算力Infra協(xié)同的工作, 非常認(rèn)同周國(guó)睿老師的一句話:“算力不再應(yīng)當(dāng)只是約束,而是一個(gè)可以聯(lián)合優(yōu)化的變量”

9d8c0c86-c659-11ef-9310-92fbcf53809c.png

今年年初還把這一系列的算法和算力的協(xié)同發(fā)展整理了一下, 可以參考

《談?wù)?a href="http://www.www27dydycom.cn/tags/ai/" target="_blank">AI落地容易的業(yè)務(wù)-搜廣推》

其實(shí)再來(lái)說(shuō)說(shuō)量化交易這一塊, 它和搜廣推很類似的也是需要在一個(gè)時(shí)間約束下做到算力和算法的平衡, 對(duì)于很多高頻交易策略其實(shí)就更難了, 涉及到一系列硬件上和算法算力的協(xié)同了, 有些時(shí)候還可以犧牲穩(wěn)定性為代價(jià), 舉個(gè)例子有些高頻交易的團(tuán)隊(duì)還在用家用CPU超頻的方式來(lái)獲得更快的運(yùn)算速度, 另一個(gè)例子在很多網(wǎng)卡上連一個(gè)寄存器都要省....

對(duì)于DeepSeek/幻方有了這樣的主營(yíng)業(yè)務(wù)做大模型時(shí),整個(gè)團(tuán)隊(duì)的火力自然是滿滿的...當(dāng)然渣B這樣的參與了國(guó)內(nèi)幾乎所有交易所的交易網(wǎng)絡(luò)設(shè)計(jì)有合規(guī)問(wèn)題和自身的職業(yè)操守就沒(méi)有去趟高頻這塊...

另一方面渣B對(duì)現(xiàn)在的大模型Transformer架構(gòu)還是有更多的不認(rèn)同, 它一定不是通往AGI的終態(tài), 因?yàn)檫@樣的依賴極大算力的ScalingLaw的算法本質(zhì)上應(yīng)該是一個(gè)錯(cuò)誤, 所以渣B更多的時(shí)間是在底層優(yōu)化算力和頂層算法背后的數(shù)學(xué)原理上花了更多的精力.

在底層算力方面, 主要是GPU微架構(gòu)的分析和Tensor運(yùn)算相關(guān)的工作以及AI加速器高速互聯(lián)等

《GPU架構(gòu)演化史》

《Tensor運(yùn)算》

《AI加速器互聯(lián)》

在數(shù)學(xué)方面(嗯,學(xué)習(xí)J神“數(shù)學(xué)方面”), 渣B一直有一個(gè)暴論:這一次人工智能革命的數(shù)學(xué)基礎(chǔ)是:范疇論/代數(shù)拓?fù)?代數(shù)幾何這些二十世紀(jì)的數(shù)學(xué)第一登上商用計(jì)算的舞臺(tái)。, 因此一直也在做一些專題的研究

《大模型的數(shù)學(xué)基礎(chǔ)》

最近看到一些論文, 例如TOPOS的視角來(lái)看待多模態(tài)大模型, 還有一些Grothendieck圖神經(jīng)網(wǎng)絡(luò)一類的東西, 似乎看到一些光了,但是這些東西是這個(gè)世界上為數(shù)不多英雄主義的存在, 一張紙一支筆的浪漫.

當(dāng)然很多人懷疑這些代數(shù)上的東西以及GNN本身的一些稀疏計(jì)算的效率問(wèn)題似乎跟AGI毫無(wú)關(guān)系. 但事實(shí)上它們可能是人腦里最精彩的存在. 昨天也到MTP時(shí)有一個(gè)觀點(diǎn):

MTP讓我想到了Zen5的2-Ahead Branch Predictor 非常有趣的工作, 其實(shí)對(duì)于o3這樣的模型, 本質(zhì)上是token as an intruction.

原來(lái)GPT是一個(gè)順序執(zhí)行結(jié)果predic next token 類似于 pc++, 然后在棧上(historical tokens as stack)操作. 順序預(yù)測(cè)下一個(gè)token

o1/o3 Large Reasoning Model 無(wú)論是MoE或者是強(qiáng)化學(xué)習(xí)一類的PRM, 實(shí)質(zhì)上是在Token Predict上做了Divergence, 例如跳轉(zhuǎn)/循環(huán)/回溯 等, PRM可以看作是一個(gè)CPU分支預(yù)測(cè)器. 從體系架構(gòu)上漸漸的可以讓大模型做到類似于圖靈完備的處理能力.

基于這個(gè)觀點(diǎn), 那么當(dāng)前的GPU的TensorCore/Cuda Core實(shí)際上就構(gòu)成了一個(gè)執(zhí)行引擎, 外面還需要一系列控制, 分支預(yù)測(cè), 譯碼器, LSU來(lái)配合, 對(duì)于基礎(chǔ)設(shè)施帶來(lái)的演進(jìn)還是有很多有趣的話題可以去探索的

另外一個(gè)暴論:當(dāng)前的Transformer模型本身作為一種生成Token的數(shù)據(jù)路徑, 而Grothendieck圖神經(jīng)網(wǎng)絡(luò)一類的東西和相關(guān)的代數(shù)結(jié)構(gòu)本身作為模型的控制路徑, 這是跑通LRM的一條路

2. 硬件和體系架構(gòu)的演進(jìn)

DeepSeek-v3的實(shí)現(xiàn)也非常優(yōu)雅, 例如考慮H800被閹割的影響, 訓(xùn)練沒(méi)有采用TP并行. 然后針對(duì)MoE的AlltoAll做了極致的優(yōu)化, 例如PXN和IBGDA等, 還有warp specialization以及dualpipe等.

相反我們看看Meta那群人, AlltoAll去年的OCP還在叫喚著Call for Action, 然后Llama3的MoE聽李沐講了一個(gè)八卦他們訓(xùn)練失敗了...也難怪要多花10倍的錢...

回到DS團(tuán)隊(duì)提到的一些未來(lái)硬件的需求, 例如當(dāng)前H800的132個(gè)SM中被分配了20個(gè)SM用于通信, 需要通信協(xié)處理器,以及為了減少應(yīng)用程序編程的復(fù)雜性,希望這種硬件能夠從計(jì)算單元的角度統(tǒng)一ScaleOut和ScaleUp網(wǎng)絡(luò)。通過(guò)這種統(tǒng)一接口, 計(jì)算單元可以通過(guò)提交基于簡(jiǎn)單原語(yǔ)的通信請(qǐng)求.

其實(shí)這些東西渣B幾年前就全部講清楚并做了一系列POC. 在2018年的時(shí)候, 看到Transformer出來(lái)以及模型開始越來(lái)越大通信成為瓶頸時(shí), 渣B當(dāng)時(shí)在Cisco就在做AI Infra相關(guān)的預(yù)研, 第一個(gè)把深度學(xué)習(xí)模型引入到Cisco路由器中做一系列Performance Assurance和Security Assurance相關(guān)的業(yè)務(wù).

然后2020年的時(shí)候和第四范式的一些研討后, 然后設(shè)計(jì)和實(shí)現(xiàn)了NetDAM. 到如今你會(huì)發(fā)現(xiàn)Tesla TTPoE也是在做同樣的事情.

《NetDAM專題》

9dab63d8-c659-11ef-9310-92fbcf53809c.png

時(shí)至今日, 你會(huì)發(fā)現(xiàn)DeepSeek對(duì)未來(lái)硬件的演進(jìn), 都在這一套框架內(nèi)完全實(shí)現(xiàn).

9dc7f390-c659-11ef-9310-92fbcf53809c.png

首先, 它對(duì)GPU側(cè)是一個(gè)標(biāo)準(zhǔn)的內(nèi)存接口, 通過(guò)在NetDAM上的一片內(nèi)存, 基于內(nèi)存語(yǔ)義把ScaleOut(Inter-Host)和ScaleUP(Intra-host)的通信完全融合了. 然后DS提到的Read/Write/multicast/reduce這些也是NetDAM一開始就做的功能, 例如RoCE需要多次訪問(wèn)GPU內(nèi)存并引入CPU控制流

9ddfa01c-c659-11ef-9310-92fbcf53809c.png

而NetDAM直接進(jìn)行了卸載:

9df7c084-c659-11ef-9310-92fbcf53809c.png

而對(duì)于DS后面提到的一系列量化和Scale相關(guān)的近內(nèi)存計(jì)算, 本質(zhì)上在NetDAM上是最好的附著點(diǎn). 例如很多人說(shuō)Mellanox延遲低, NetDAM直接bypass PCIe延遲輕松秒殺

9e090b3c-c659-11ef-9310-92fbcf53809c.png

但是這個(gè)世界并不是完美的, 因?yàn)槿丝倸w是有屁股的. 例如思科當(dāng)時(shí)的重心全部放在了Silicon One上, Intel守著自己的UPI在CXL上扣扣搜搜的, 而同樣Nvidia在B200這一代雖然把IB和NVSwitch融合在一起做交換芯片, 但最終在未來(lái)還是分開了...

而如今呢?當(dāng)一切的事情越來(lái)越清晰的時(shí)候, 或許這些廠商們會(huì)明白這個(gè)問(wèn)題了...

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 芯片
    +關(guān)注

    關(guān)注

    459

    文章

    51927

    瀏覽量

    433686
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4682

    瀏覽量

    94343
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    2941

    瀏覽量

    3683
  • DeepSeek
    +關(guān)注

    關(guān)注

    1

    文章

    755

    瀏覽量

    1051

原文標(biāo)題:談?wù)凞eepSeek-v3提到的基礎(chǔ)設(shè)施演進(jìn)

文章出處:【微信號(hào):OSC開源社區(qū),微信公眾號(hào):OSC開源社區(qū)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    科大訊飛深度解析DeepSeek-V3/R1推理系統(tǒng)成本

    本篇分析來(lái)自科大訊飛技術(shù)團(tuán)隊(duì),深度解析了DeepSeek-V3 / R1 推理系統(tǒng)成本,旨在助力開發(fā)者實(shí)現(xiàn)高性價(jià)比的MoE集群部署方案。感謝訊飛研究院副院長(zhǎng)&AI工程院常務(wù)副院長(zhǎng)龍明康、AI工程院AI云平臺(tái)研發(fā)部總監(jiān)李珍松、訊飛星辰MaaS團(tuán)隊(duì)的研究對(duì)本文的貢獻(xiàn)。
    的頭像 發(fā)表于 04-15 13:46 ?892次閱讀
    科大訊飛深度解析<b class='flag-5'>DeepSeek-V3</b>/R1推理系統(tǒng)成本

    摩爾線程GPU成功適配Deepseek-V3-0324大模型

    架構(gòu)和全功能GPU的強(qiáng)大技術(shù)實(shí)力,摩爾線程迅速響應(yīng)并完成了對(duì)DeepSeek-V3的無(wú)縫升級(jí),實(shí)現(xiàn)了零報(bào)錯(cuò)、零兼容性問(wèn)題的光速部署,充分展現(xiàn)了摩爾線程在AI大模型領(lǐng)域的領(lǐng)先優(yōu)勢(shì)。
    的頭像 發(fā)表于 03-31 11:34 ?403次閱讀
    摩爾線程GPU成功適配<b class='flag-5'>Deepseek-V3</b>-0324大模型

    HarmonyOS NEXT開發(fā)實(shí)戰(zhàn):DevEco Studio中DeepSeek的使用

    /completions; 點(diǎn)擊Body將model修改為deepseek-chat(對(duì)應(yīng)DeepSeek-V3)或者deepseek-reasoner(對(duì)應(yīng)DeepSeek-R1)
    發(fā)表于 03-07 14:56

    壁仞科技支持DeepSeek-V3滿血版訓(xùn)練推理

    DeepSeek在開源周開源了部分關(guān)鍵模塊的代碼及推理系統(tǒng)參考架構(gòu),再次引發(fā)行業(yè)震動(dòng),但目前尚未開源DeepSeek-V3 滿血版完整訓(xùn)練代碼。壁仞科技憑借八大自主創(chuàng)新技術(shù),實(shí)現(xiàn)
    的頭像 發(fā)表于 03-04 14:01 ?668次閱讀

    商湯大裝置DeepSeek企業(yè)版上線

    今年2月,商湯大裝置萬(wàn)象平臺(tái)正式上線了DeepSeek-R1、DeepSeek-V3等模型,并為免費(fèi)版提供3個(gè)月內(nèi)千萬(wàn)Token額度,受到客戶的熱烈響應(yīng)。
    的頭像 發(fā)表于 02-25 10:07 ?442次閱讀

    實(shí)戰(zhàn)教程 用滿血版DeepSeek-V3 671B自動(dòng)編寫俄羅斯方塊游戲

    。 本文將從零開始詳細(xì)介紹使用滿血版的DeepSeek-V3 671B模型 + 官方推薦的Roo Code插件為您打造AI編程智能體的全過(guò)程。 一,開發(fā)環(huán)境準(zhǔn)備 本文的軟硬件環(huán)境如下: 操作系統(tǒng)
    的頭像 發(fā)表于 02-19 16:23 ?945次閱讀
    實(shí)戰(zhàn)教程 用滿血版<b class='flag-5'>DeepSeek-V3</b> 671B自動(dòng)編寫俄羅斯方塊游戲

    了解DeepSeek-V3DeepSeek-R1兩個(gè)大模型的不同定位和應(yīng)用選擇

    DeepSeek-V3DeepSeek-R1 是深度求索公司(DeepSeek)推出的兩個(gè)不同定位的大模型,其核心差異主要體現(xiàn)在目標(biāo)場(chǎng)景、能力側(cè)重和技術(shù)優(yōu)化方向上。以下是二者的實(shí)質(zhì)性
    發(fā)表于 02-14 02:08

    訊飛開放平臺(tái)支持DeepSeek

    今天,DeepSeek全系大模型正式上線訊飛開放平臺(tái)(包括DeepSeek-V3DeepSeek-R1),支持公有云API調(diào)用、一鍵部署專屬模型!
    的頭像 發(fā)表于 02-11 09:27 ?681次閱讀

    DeepSeek-V3 API價(jià)格調(diào)整,用戶活躍度飆升

    DeepSeek-V3 API服務(wù)的優(yōu)惠體驗(yàn)階段已經(jīng)圓滿結(jié)束。為了提供更穩(wěn)定、高質(zhì)量的服務(wù),自2月9日起,該服務(wù)將實(shí)行新的定價(jià)政策。具體而言,對(duì)于緩存命中的輸入tokens,費(fèi)用將調(diào)整為每百萬(wàn)0.5
    的頭像 發(fā)表于 02-10 14:17 ?460次閱讀

    商湯大裝置接入DeepSeek系列模型

    即日起,企業(yè)客戶和開發(fā)者可在商湯大裝置萬(wàn)象平臺(tái)中,快速部署DeepSeek-V3DeepSeek-R1等模型,可享受3個(gè)月內(nèi)1000萬(wàn)tokens免費(fèi)使用權(quán)益。
    的頭像 發(fā)表于 02-10 10:16 ?431次閱讀

    昆侖芯率先完成Deepseek訓(xùn)練推理全版本適配

    本文是昆侖芯適配DeepSeek系列推文第一篇,將于近期分別推出在昆侖芯P800上進(jìn)行DeepSeek-V3/R1推理、訓(xùn)練的深度文章,干貨滿滿、持續(xù)關(guān)注!
    的頭像 發(fā)表于 02-06 15:13 ?943次閱讀
    昆侖芯率先完成<b class='flag-5'>Deepseek</b>訓(xùn)練推理全版本適配

    AMD將DeepSeek-V3模型集成至Instinct MI300X GPU

    AMD近日宣布了一項(xiàng)重要進(jìn)展,成功將全新的DeepSeek-V3模型集成到其Instinct MI300X GPU上。這一舉措標(biāo)志著AMD在AI推理優(yōu)化方面邁出了重要一步。 據(jù)了解
    的頭像 發(fā)表于 02-06 09:41 ?410次閱讀

    百度云與阿里云上線DeepSeek模型部署服務(wù)

    近日,百度智能云和阿里云相繼宣布上線DeepSeek-R1和DeepSeek-V3模型的部署服務(wù),為開發(fā)者和企業(yè)用戶提供了更加高效便捷的AI服務(wù)體驗(yàn)。 百度智能云方面,DeepSeek
    的頭像 發(fā)表于 02-05 15:40 ?702次閱讀

    AMD集成DeepSeek-V3模型至Instinct MI300X GPU

    AMD近日宣布了一項(xiàng)重要的技術(shù)進(jìn)展,即將全新的DeepSeek-V3模型成功集成到其旗艦級(jí)GPU產(chǎn)品——Instinct MI300X上。這一舉措標(biāo)志著AMD在人工智能推理領(lǐng)域邁出了堅(jiān)實(shí)的一步
    的頭像 發(fā)表于 02-05 13:58 ?385次閱讀

    DeepSeek-v3 在電子工程領(lǐng)域的應(yīng)用價(jià)值

    本帖最后由 genuin 于 2025-1-30 18:56 編輯 DeepSeek-v3 AI大模型除了能幫你寫代碼、讀文件、寫作等各種創(chuàng)意內(nèi)容,它在電子工程領(lǐng)域也具有廣泛的應(yīng)用價(jià)值,能夠
    發(fā)表于 01-30 18:52