一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

科大訊飛深度解析DeepSeek-V3/R1推理系統(tǒng)成本

訊飛開放平臺 ? 來源:訊飛開放平臺 ? 2025-04-15 13:46 ? 次閱讀

本篇分析來自科大訊飛技術(shù)團隊,深度解析了DeepSeek-V3 / R1 推理系統(tǒng)成本,旨在助力開發(fā)者實現(xiàn)高性價比的MoE集群部署方案。感謝訊飛研究院副院長&AI工程院常務(wù)副院長龍明康、AI工程院AI云平臺研發(fā)部總監(jiān)李珍松、訊飛星辰MaaS團隊的研究對本文的貢獻。

一、分析團隊背景簡介

分析團隊來自科大訊飛星辰MaaS團隊,從語音小模型時代到認知大模型時代,積累了豐富的大規(guī)模AI推理服務(wù)集群優(yōu)化及運營經(jīng)驗,也支撐了國內(nèi)首個全國產(chǎn)萬卡算力訓(xùn)推集群的上線。

二、分析目的

在MaaS賽道中,大家受益于DeepSeek-V3/R1開源的壯舉,但也面臨著成本方面的壓力

由于DeepSeek未開源推理服務(wù)器的整體集群方案以及公開運營的更多細節(jié),大部分MaaS產(chǎn)商的性能/成本優(yōu)化可能遠不及DeepSeek當前優(yōu)化的水平,我們希望通過更細節(jié)的過程分析,使得性能/成本綜合優(yōu)化方向更加清晰,結(jié)合DeepSeek開源的高性能庫,更快實現(xiàn)高性價比的MoE集群部署方案

本文力求從應(yīng)用視角計算估算相關(guān)數(shù)據(jù),方便大家參考,由于存在大量估算,難免存在錯誤,請大家指正

DeepSeek原文鏈接,本文中的“原文”特指該鏈接內(nèi)容

三、影響成本的關(guān)鍵因素

快速理解DeepSeek MoE推理邏輯架構(gòu)

我們將DeepSeek MoE系統(tǒng)工程架構(gòu)類比成醫(yī)院就醫(yī)問診流程架構(gòu),方便大家理解。

MoE

依靠“專家”機制激活參數(shù)更小,更便宜

Prefill與Decode分離,計算更高效

KVCache緩存降低重復(fù)上下文計算

從單機到幾十機,負載均衡調(diào)度復(fù)雜性上升,既要降低用戶響應(yīng)時間,又要提升系統(tǒng)吞吐率,實現(xiàn)低成本,還要保障系統(tǒng)的可靠性(大專家EP并行工程關(guān)鍵難點)

醫(yī)院

不用花錢看更貴的“全科醫(yī)生”,看個別“??漆t(yī)生”

問診和醫(yī)技流程分離,流程更高效

歷史電子病歷、檢查報告,減少重復(fù)檢查

從全科室到多??剖?,預(yù)約導(dǎo)診分流復(fù)雜度上升,既要縮短病人看病時間,也要提升各科室的問診效率,實現(xiàn)醫(yī)院的效益,還要保障關(guān)鍵流程有效運轉(zhuǎn)

0db8ffc8-18cb-11f0-9310-92fbcf53809c.png

MoE推理集群部署架構(gòu)概覽

0dcff106-18cb-11f0-9310-92fbcf53809c.png

備注:圖片來自知乎

關(guān)鍵概念描述

應(yīng)用側(cè)

APP:DeepSeek Web/APP端的C端用戶請求

API:DeepSeek API側(cè)的B端用戶請求

DAU:日均活躍用戶

total_usage:日均總使用次數(shù)

max_con:日峰值并發(fā)用戶請求數(shù)

TTFT:首token響應(yīng)時間

TPOT:平均每token輸出的時延,從原文中得知約為50ms(平均輸出速率為 20~22 tps)

系統(tǒng)側(cè)

API:指為API開放所搭建的平臺服務(wù)器集群,由于具有較好的邊際成本遞減效應(yīng),故不納入成本關(guān)鍵因素分析

Prefill 與 Decode:分別對應(yīng)原文中PD分離架構(gòu)中的兩個集群

N:M:由于我們并不清楚P與D的單元化集群配比是不是1:1,所以先假設(shè)是N:M,基于原文得知4*N+18*M=278

total_in/kvcache_rate/total_out/throughput_p/throughput_d:分別映射到原文中的總token與單機吞吐數(shù)據(jù)

運營側(cè)

SR_Cost:原文中提到的服務(wù)器平均占用率,由原文可知SR_Cost=226.75/278≈82%

SR_Use:指服務(wù)器集群利用率,通??梢曰诜?wù)水位采樣監(jiān)控值曲線求面積,反算后得到利用率

SR_Available:指服務(wù)高峰期容量超限時,可用容量水位占實際用戶請求水位的比例

四、關(guān)鍵數(shù)據(jù)項分析過程

服務(wù)器集群利用率估算

原文中提到的服務(wù)器占用率,我們首先要將這個概念轉(zhuǎn)化為服務(wù)峰值容量、服務(wù)集群利用率這兩個概念。

DeepSeek-V3 和 R1 推理服務(wù)占用節(jié)點總和,峰值占用為 278 個節(jié)點,平均占用 226.75 個節(jié)點(每個節(jié)點為 8 個 H800 GPU

傳統(tǒng)互聯(lián)網(wǎng)應(yīng)用中通常會用并發(fā)用戶請求數(shù)或者QPS每秒請求任務(wù)數(shù)來量化系統(tǒng)的容量水位,由于AI類計算任務(wù)(如語音識別、語音合成、大模型交互)單次請求的計算時長并不固定,因此通常使用并發(fā)用戶請求數(shù)來衡量系統(tǒng)容量水位。使用這種方式統(tǒng)計并實現(xiàn)相應(yīng)的負載調(diào)度能更好的保障SLA中的關(guān)鍵SLO(如成功率、TTFT、TPOT等)。

0df22bae-18cb-11f0-9310-92fbcf53809c.png

通常AI計算是一個分布式集群,所以需要采樣集群中所有節(jié)點的實時容量水位情況,max_con就是系統(tǒng)的并發(fā)峰值,也就是服務(wù)峰值容量(不考慮少量的容量冗余)。有了這個容量圖,就可以計算服務(wù)集群利用率。我們以訊飛星辰MaaS平臺上工作日24小時區(qū)間內(nèi)常見的C端大模型應(yīng)用請求并發(fā)趨勢為例(縱軸為并發(fā)容量%比例),通過計算采樣陰影部分的面積求和后與整體面積的比例估算后,得到服務(wù)集群利用率SR_Use ≈ 33%,即整個集群如果按照并發(fā)峰值水位一直計算,有效計算時間SR_Use_Time = 8小時。

0e0a2e02-18cb-11f0-9310-92fbcf53809c.png

我們將這個趨勢圖與原文中的服務(wù)器占用圖進行對比,在波谷階段基本是一致的。根據(jù)原文信息可以測算出服務(wù)器平均占用率SR_Cost≈82%,這個值并不是我們提到的集群利用率,結(jié)合集群利用率估算后,可能會使得單機吞吐峰值大幅上漲。我們希望結(jié)合高峰期系統(tǒng)拒絕請求及恢復(fù)的時間點,估算出服務(wù)可用率的水位線SR_Available的值。

0e22e334-18cb-11f0-9310-92fbcf53809c.png

備注:圖片來自知乎 我們分別對DeepSeek API和網(wǎng)頁進行了V3/R1采樣測試,時間在工作日3月13日~14日,得到如下數(shù)據(jù):

對V3 API/網(wǎng)頁進行全天24h采樣測試,全天測試成功率100%,表明V3請求峰值未超過集群容量

對R1 API/網(wǎng)頁進行全天24h采樣測試,全天測試存在3個時間段成功率下滑、且對應(yīng)時間段的請求TTFT顯著增長,分別為13:36~17:22,21:02~23:02,09:26~11:34,表明在該時間段內(nèi)請求峰值超過集群容量

由此可見,V3/R1存在集群隔離情況,且V3容量正常,推測V3使用量相比而言不高

在測試過程中,順便統(tǒng)計了低峰期首token的響應(yīng)時間均值TTFT≈9秒

以上測試時間是在原文發(fā)出之后,選擇的工作日時間測試,流量特征相對吻合

0e4008c4-18cb-11f0-9310-92fbcf53809c.png

將R1成功率下滑時間段與C端并發(fā)趨勢圖進行對比,可以看到除了晚上的峰值時間不完全一樣,其他兩個峰值基本吻合,由此可以大概估算出R1集群服務(wù)可用率水位線SR_Available≈60%。

0e51a5f2-18cb-11f0-9310-92fbcf53809c.png

從夜間H800節(jié)點圖可以看出最小集群時預(yù)留了60~70個節(jié)點,約2~3個部署單元。假設(shè)該集群中存在大量API24小時跑特定數(shù)據(jù)處理任務(wù),那API對高利用率的貢獻應(yīng)該局限在這70個節(jié)點內(nèi)。小結(jié)一下,DeepSeek公開的利用率相關(guān)的幾個數(shù)據(jù)整體合理,從集群整體層面提高利用率的可能性方法如下:

削峰,犧牲一定的SLA成功率,節(jié)省了峰值時需要額外增加但低谷時利用率偏低的服務(wù)器,預(yù)計削峰的可用率水位在60%以上。MaaS產(chǎn)商可以根據(jù)SLA做分級API產(chǎn)品

填谷,將實時任務(wù)與離線任務(wù)形成一體化集群,使用潮汐調(diào)度技術(shù)實現(xiàn)集群的利用率提升,降低實時任務(wù)服務(wù)器低谷期的占用攤銷18%,需要足夠的離線業(yè)務(wù)體量。MaaS產(chǎn)商可以發(fā)力離線產(chǎn)品的業(yè)務(wù)體量

服務(wù)器集群部署單元PD配比估算驗證

原文中提到每個Prefill部署單元4個節(jié)點,Decode部署單元18個節(jié)點,總集群278個節(jié)點,我們需要計算出Prefill和Decode部署單元的配比,以便后續(xù)進一步分析吞吐數(shù)據(jù)。估算步驟如下:

首先4*N+18*M=278,(N,M)=(65,1),=(56,3),=(47,5),=(38,7),=(29,9),=(20,11),=(11,13),=(2,15)

通過低谷期的節(jié)點數(shù)可以看出,L1水位約4*X1+18*Y1 在 60~70 (只能是偶數(shù)),L2擴容小于2個Decode單元36臺,即4*X2+18*(Y1+1)在 90~100(只能是偶數(shù))

我們估計N=29,M=9,N:M ≈ 3.2。在L1水位時,X1=7,Y1=2,X1:Y1 ≈ 3.5,節(jié)點數(shù)為64。在L2水位時,X2= 10,Y1+1=3, X2:(Y1+1)≈ 3.3,節(jié)點數(shù)為40+54=94。整體與低谷水位圖吻合

Y1=2,意味著最低谷期時保留了一個V3部署單元,一個R1部署單元

0e6ae698-18cb-11f0-9310-92fbcf53809c.png

備注:圖片來自知乎文章《DeepSeek-V3 / R1 推理系統(tǒng)概覽》 我們從原文中的吞吐的視角來計算一下這兩個值,基本吻合:

輸入608B*(1-56.3%)≈ 266B = 32.2k *24*3600*4*N,N≈23.9,考慮到機器占用率SR_Cost 82%,N≈23.9/82%≈29.15

輸出168B=14.8k*24*3600*18*M,M≈7.3,M≈23.9/82%≈8.9

基于這樣的配比,我們需要驗證Prefill/Decode集群的處理能力是否一致。我們依舊以簡化后的并發(fā)請求模式來計算相關(guān)值。在并發(fā)量一定的請求下,如果想保持Prefill/Decode兩個階段不積壓,需要在平均單位時間內(nèi),兩階段完成的計算請求數(shù)一樣,如果再簡化一下,就是每秒處理請求數(shù)QPS一樣。通過計算,兩階段的QPS十分接近,符合預(yù)期。

假設(shè)平均每個請求的輸入長度為Avg_In = 608X tokens,非緩存計算的輸入長度為Avg_In_P = 266X tokens,平均輸出長度為Avg_Out = 168X tokens

Prefill階段的QPS_P = 73.7k *(1 - 56.3%)*4*29 tps /Avg_In_P ≈ 14045/X

Decode階段的QPS_D = 14.8k*18*9 tps/Avg_Out ≈ 14271/X

小結(jié)一下,考慮到V3和R1的輸入/輸出平均長度不一樣,PD的配比也會不一樣,但總的來說,公布的數(shù)據(jù)峰谷圖、吞吐、集群配比上能高度吻合,公開數(shù)據(jù)合理。其中Prefill部署單元29個共116個節(jié)點,Decode部署單元9個共162個節(jié)點。

單機吞吐峰值與理論值估算驗證

前面估算集群利用率,是為了將單機吞吐的平均值按照利用率換算為單機吞吐的峰值,這樣能更好的對比與理論值的差異,為工程優(yōu)化提供參考??紤]到原文中集群存在削峰的情況,我們直接選取峰值階段1小時的吞吐數(shù)據(jù)來估算單機吞吐峰值。我們以峰值區(qū)間15:00~16:00為例:

該時間段服務(wù)器節(jié)點278,其中Prefill節(jié)點116個,Decode節(jié)點 162個,從下圖可以估算出該小時內(nèi)理論收入為$31k

DeepSeek R1 的定價:$0.14 / 百萬輸入 tokens (緩存命中),$0.55 / 百萬輸入 tokens (緩存未命中),$2.19 / 百萬輸出 tokens 輸入 token 總數(shù)為 608B,其中 342B tokens(56.3%)命中 KVCache 硬盤緩存。輸出 token 總數(shù)為 168B 平均每臺 H800 的吞吐量為:對于 Prefill 任務(wù),輸入吞吐約 73.7k tokens/s(含緩存命中);對于 Decode 任務(wù),輸出吞吐約 14.8k tokens/s

假設(shè)該峰值區(qū)間的總輸出token為X 百萬,按輸入/輸出平均比例估計,則實際計算的總輸入token數(shù)為1.583X,命中Cache 的總輸入token數(shù)為2.036X, 結(jié)合該時段理論收入$31k與各部分單價,可得X=9.265B,累計總輸入token為33.531B(其中14.67B 未命中Cache)

該區(qū)間時間為3600秒,與Prefill的總節(jié)點數(shù)116計算,得到單節(jié)點平均輸入吞吐約為35.13k tokens/s(未含緩存命中),與Decode的總節(jié)點數(shù)162計算,得到單節(jié)點平均輸出吞吐約為15.89k token/s,與公布的數(shù)據(jù)增長了8%,整體在合理的增長范圍

考慮R1/V3集群為隔離部署,且V3請求峰值未超過集群容量,故高峰期間實際單機吞吐峰值還會略高于上述吞吐值

0e877416-18cb-11f0-9310-92fbcf53809c.png

社區(qū)關(guān)于原文中公開的單機吞吐的理論值的分析,已經(jīng)做的比較深入和全面了,其中zarbot與Han Shen的分析比較有代表性,此處引用了Han Shen其中一篇分析 https://zhuanlan.zhihu.com/p/29540042383。

H800 (BF16 kvcache)最佳離線吞吐為單卡2844 tokens/s,由two-mircobatch overlapping的 DP288-EP288 - bmla64 方案得到

H800 (FP8 kvcache)最佳離線吞吐為單卡3121 tokens/s,由two-mircobatch overlapping的 DP288-EP288- bmla128 方案,或者DP48-EP48- bmla128 方案得到

H800 (FP8 kvcache)最佳線上吞吐(滿足20 tokens/s 左右用戶延遲)為2909 tokens/s, 由single-batch compute-communication overlapping的DP24-EP24- bmla128 方案得到。

H800 (BF16 kvcache)最佳線上吞吐(滿足20 tokens/s 左右用戶延遲)為2844 tokens/s,由two-mircobatch overlapping的DP288-EP288- bmla64 方案得到

在8卡H800上,單機吞吐的理論值在22.75k tokens/s以上。本節(jié)中計算值15.89k token/s在理論值的70%,故數(shù)據(jù)在合理區(qū)間。小結(jié)一下,在服務(wù)容量高峰時段,經(jīng)過估算,單節(jié)點平均輸入吞吐約為35.13k token/s,單節(jié)點平均輸出吞吐約為15.89k token/s,較官方公布平均吞吐約增長8%,公開數(shù)據(jù)合理,大家關(guān)注的輸出吞吐部分,在理論值22.75k tokens/s范圍內(nèi)。

用戶請求行為粗略估算

本節(jié)我們將用一些相對粗略的公開數(shù)據(jù),大致估算一下用戶的平均輸入/輸出。由于缺乏的數(shù)據(jù)輸入項過多,預(yù)估與實際值會存在很大的誤差,請側(cè)重參考輸入/輸出等用戶行為因素如何影響集群的配比。用戶規(guī)模,在原文發(fā)出來的一周,我們咨詢了相關(guān)C端運營,通過擬合各類數(shù)據(jù),預(yù)估對應(yīng)時間段在2400W左右。通過DeepSeek網(wǎng)頁端提問,大概也得到了2000~3000W日活的范圍,所以我們以DAU=24M為準。假設(shè)該用戶數(shù)也包含了API側(cè)toB toC的日活用戶,整體而言DeepSeek自有流量的日活占絕大頭。

0ea34f4c-18cb-11f0-9310-92fbcf53809c.png

平均輸出,相比輸入的長度受用戶使用次數(shù)和連續(xù)會話輪次影響,模型的輸出平均值一般比較穩(wěn)定。我們參考星辰MaaS上 V3和R1的輸出均值,分別為300和1000 tokens。分布比例,結(jié)合上文中提到V3在容量上比R1空閑大,我們認為用戶使用V3的總次數(shù)低于R1,假設(shè)V3占比為r:

V3的每日總使用次數(shù)為168B*r/300=560M*r

R1的每日總使用次數(shù)為168B*(1-r)/1000=168M*(1-r)

平均次數(shù),V3的平均用戶使用次數(shù)為560M*r/24M=23.33*r,R1為168M*(1-r)/24M=7*(1-r)。平均輪次,輪次越大,平均輸入因疊加歷史輸出會越長,假設(shè)V3的平均輪次為n,R1的平均輪次為m,平均輪次一定是小于等于平均次數(shù),即n ≤ 23.33*r;m ≤ 7*(1-r)。平均輸入,平均輸入通常與用戶平均使用上下文輪次有關(guān),除此之外,由幾個部分組成。

用戶的直接輸入,一般20 tokens左右,在平均輸出中的成分為20*(n+1)/2=10n+10

上輪輸出,R1的思維鏈約占輸出的50%,不會作為下一輪的輸入,V3不存在該截斷,故V3為300*(n-1)/2=150n-150,R1為1000*50%*(m-1)/2=250m-250

聯(lián)網(wǎng)搜索,聯(lián)網(wǎng)搜索按照星辰MaaS統(tǒng)計,通常請求觸發(fā)聯(lián)網(wǎng)比例在15~25%之間,此處取20%。每次搜索網(wǎng)頁全文按照5K tokens保守估計,均攤到每次的平均輸入取整為1000 tokens,這部分tokens不會作為上下文歷史累加

0eba0156-18cb-11f0-9310-92fbcf53809c.png

在粗估數(shù)據(jù)下,V3 token占比在35%時,用戶行為相對符合直覺,V3的平均輸入在2000 tokens左右,R1的平均輸入在1800左右,日均總請求次數(shù)total_usage=560M*r+168M*(1-r)=3.05億次。

0eca8314-18cb-11f0-9310-92fbcf53809c.png

結(jié)合上一節(jié)中高峰期時段的數(shù)據(jù),來粗略估算計算節(jié)點的分布情況,可得知下表V3的PD配比為20:3,共135個節(jié)點,R1的為9:6,共143個節(jié)點。整體來說Decode階段的計算單元R1比V3多符合預(yù)期,Prefill階段V3占用過多計算單元略顯意外,按照利用率估算過程中的值來看,V3的峰值是未觸發(fā)容量上限的,這可能與我們的平均輸出預(yù)估以及DAU的誤差有關(guān),但也可能是為了在高峰期將預(yù)期使用R1的用戶請求引導(dǎo)到性價比更高的V3。

可得X=9.265B,累計總輸入token為33.531B(其中14.67B 未命中Cache)

該區(qū)間時間為3600秒,與Prefill的總節(jié)點數(shù)116計算,得到單節(jié)點平均輸入吞吐約為35.13k tokens/s(未含緩存命中),與Decode的總節(jié)點數(shù)162計算,得到單節(jié)點平均輸出吞吐約為15.89k token/s

0ed8c730-18cb-11f0-9310-92fbcf53809c.png

小結(jié)一下,經(jīng)過粗略的估算,當V3的輸出流量占比在35%時,V3平均輸入為2000 tokens,輸出300tokens,R1平均輸入為1800 tokens,輸出為1000 tokens,V3計算單元的PD配比為20:3,R1為9:6。

集群高并發(fā)高吞吐策略分析

大專家EP并行計算的特點是需要高并發(fā)的請求量,來激活集群各個維度的性能上限,獲得高吞吐率。首先分析原文中集群的并發(fā)情況。Decode階段并發(fā):

結(jié)合H800的單機token吞吐、平均輸出速率可以知悉Decode節(jié)點單機并發(fā)≈14.8k/21* ≈ 705

按官方公開信息1個Decode部署單元為18個節(jié)點,故Decode最小部署單元并發(fā)≈705*18 = 12.69k

根據(jù)上文分析Decode節(jié)點總數(shù)為162,則集群整體并發(fā)數(shù)max_con≈705*162=114.21k

Prefill階段并發(fā):

根據(jù)上節(jié)中的粗略估算的數(shù)據(jù),R1平均輸入長度為1800 tokens,R1的TTFT=9s

R1單機并發(fā)=73.7k/1.8k * 9=368.5

R1Prefill最小部署單元并發(fā)=368.5*4 =1474

通常在推理計算過程中,在高并發(fā)、高并行計算獲得高吞吐的同時,也需要權(quán)衡延遲因素TTFT、TPOT,其關(guān)系如下:

并發(fā)提升初期,單機吞吐值、TTFT隨著并行度提升呈現(xiàn)非線性增長趨勢;

當并發(fā)超過一定閾值后,并行度提升帶來的計算量達到服務(wù)器計算瓶頸,吞吐不再隨之提升,但TTFT因并行排隊、通信延遲等因素而持續(xù)增加;

上述趨勢可以從zarbot的分析中得到論證:單機Prefill吞吐在DP8并行策略下達到33741,在DP4并行策略下僅為28693,提高并行度一定程度可以提升單機吞吐。MaaS廠商如果期望得到更低的TTFT,可能需要以更低的單機吞吐為代價,來獲得用戶體驗的平衡。

文章鏈接 在TP=4,DP=8的部署方式下,H800單機Prefill TPS=33741.0;TPS(overlap)=52240.1 在TP=8,DP=4的部署方式下,H800單機Prefill TPS=28693.1;TPS(overlap)=41057.0

小結(jié)一下,原文中最小部署單元可支撐12.69k路并發(fā),整個集群支撐114.21k路并發(fā),要達到超低成本,需要有規(guī)模化的用戶請求才能支撐,MaaS廠商需要權(quán)衡好冷啟動階段的成本問題。若要達成更小的TTFT達到更優(yōu)的用戶體驗,MaaS廠商需要考慮吞吐和首響平衡帶來的Prefill階段額外成本開銷。

低成本組合方案估算

最后,我們結(jié)合上述性能分析的各類影響因素,梳理了幾種典型場景下的成本方案,供參考。方案1,假設(shè)MaaS產(chǎn)商在白日不削峰、夜間無填谷的情況下,集群單日成本利潤率約為112%。

0ee49038-18cb-11f0-9310-92fbcf53809c.png

0efc4ac0-18cb-11f0-9310-92fbcf53809c.png

方案2,通過訓(xùn)推一體、彈性調(diào)度等技術(shù)實現(xiàn)夜間波谷期資源回收填谷后,可有效降低服務(wù)成本,集群單日成本利潤率約為183.37%。

以夜間縮容區(qū)間00:00~08:00為例,55%水位線以下填谷收益約為(278-226.75)/278= 18.4%;55%水位線以上填谷收益為1/3;全天降本收益55%*18.4%+45%*1/3=25%

0f0f3e82-18cb-11f0-9310-92fbcf53809c.png

0f264438-18cb-11f0-9310-92fbcf53809c.png

方案3,在方案2的基礎(chǔ)上再進一步,可以在日間波峰期間將訓(xùn)練資源彈性擴容以應(yīng)對流量峰值,進一步降低服務(wù)成本,單日成本利潤率約為234.16%。

0f38da62-18cb-11f0-9310-92fbcf53809c.png

0f4dba5e-18cb-11f0-9310-92fbcf53809c.png

五、MoE大模型成本優(yōu)化方向總結(jié)

綜合上述分析,我們可以看到除了極致的推理性能及吞吐優(yōu)化外,大模型成本與算力資源有效利用率、首響用戶體驗等體系化的綜合策略也息息相關(guān)?;谝陨铣杀緮?shù)據(jù)分析,MaaS產(chǎn)商的成本優(yōu)化方向主要集中在以下幾點:

大專家EP并行方案優(yōu)化,優(yōu)化指標在H800上需要達到,Prefill單機達35.13k tokens/s(未含緩存命中),Decode單機吞吐達15.89k token/s,其他卡型可以參考性價比換算

集群潮汐調(diào)度,基于夜間波谷期算力潮汐調(diào)度,對MaaS業(yè)務(wù)低峰期資源回收填谷,有效降低推理算力成本25%。基于日間波峰期算力的彈性調(diào)度擴容,將75%水位線以上容量的增量資源成本由全天24h降低至5h,在夜間基礎(chǔ)上再降本11.4%

離線計算產(chǎn)品設(shè)計,通過離線產(chǎn)品補充峰谷期的計算空閑,提升集群利用率

差異化SLA產(chǎn)品,面向不同SLO及用戶體驗需求提供差異化MaaS服務(wù),通過適當增加首token響應(yīng)TTFT、降低平均每token輸出的時延TPOT、適當放棄峰值期間成功率,確保集群高利用率

規(guī)模化推廣,MoE超低成本依賴規(guī)?;脩粽埱笾С?,冷啟動成本較高,選擇合適的部署方案應(yīng)對用戶需求

六、大模型成本-性能對照速算表

為了方便技術(shù)團隊設(shè)置技術(shù)優(yōu)化目標及運營團隊設(shè)計產(chǎn)品價格,我們進一步提供了一個速算表,可以根據(jù)目標價格,結(jié)合不同的SLA/SLO、用戶場景輸入/輸出長度,以及服務(wù)器選型成本、集群利用率運營水平,來設(shè)置優(yōu)化目標。(白色數(shù)值項可代入,黃色為公式計算)

假設(shè)平均每個請求的輸入長度為Avg_In = 608X tokens,非緩存計算的輸入長度為Avg_In_P = 266X tokens,平均輸出長度為Avg_Out = 168X tokens

設(shè)X=3

0f5aaee4-18cb-11f0-9310-92fbcf53809c.png

0f68eb1c-18cb-11f0-9310-92fbcf53809c.png

七、結(jié)語及展望

DeepSeek-V3/R1自開源后迅速轟動全球,以其領(lǐng)先的算法架構(gòu)創(chuàng)新以及極致的系統(tǒng)性工程優(yōu)化,贏得了全球從業(yè)者及用戶的尊重,這也讓無數(shù)研究員、工程師熱血澎湃!我們也看到在NVIDIA GTC 2025上,黃教主發(fā)布了性能超強的新一代Blackwell芯片。在條件受限以及硬件存在差距的情況下,我們唯有繼續(xù)從系統(tǒng)性角度進行極致的工程創(chuàng)新,方能補齊硬件上的短板,以極致的性價比迎接AI大模型應(yīng)用的指數(shù)級增長!

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 開源
    +關(guān)注

    關(guān)注

    3

    文章

    3533

    瀏覽量

    43292
  • 科大訊飛
    +關(guān)注

    關(guān)注

    19

    文章

    833

    瀏覽量

    62049
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    2941

    瀏覽量

    3683
  • DeepSeek
    +關(guān)注

    關(guān)注

    1

    文章

    755

    瀏覽量

    1051

原文標題:萬字長文深度解析DeepSeek-V3 / R1 推理系統(tǒng)成本

文章出處:【微信號:訊飛開放平臺,微信公眾號:訊飛開放平臺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    了解DeepSeek-V3DeepSeek-R1兩個大模型的不同定位和應(yīng)用選擇

    功能對比: 1. 核心定位差異 維度 DeepSeek-V3 DeepSeek-R1 目標場景 通用型任務(wù)(文本生成、多輪對話等) 復(fù)雜推理與數(shù)學(xué)能力優(yōu)先(如STEM領(lǐng)域) 優(yōu)化方向
    發(fā)表于 02-14 02:08

    科大發(fā)布星火認知大模型V3.5

    科大近日發(fā)布了星火認知大模型V3.5版本,該版本基于全國產(chǎn)化算力底座“星一號”平臺進行訓(xùn)練。與
    的頭像 發(fā)表于 01-31 14:40 ?1088次閱讀

    科大即將發(fā)布星火深度推理模型X1

    近日,科大飛在1月7日成功舉辦的辦公智能體產(chǎn)品升級發(fā)布會上,宣布了一項令人振奮的新進展。據(jù)科大
    的頭像 發(fā)表于 01-08 10:30 ?600次閱讀

    科大發(fā)布星火深度推理模型X1

    今天,科大正式發(fā)布星火深度推理模型X1,星火4.0 Turbo底座全面升級,首發(fā)星火語音同傳
    的頭像 發(fā)表于 01-15 15:54 ?540次閱讀

    科大發(fā)布星火深度推理模型X1,技術(shù)升級引領(lǐng)行業(yè)創(chuàng)新

    近日,科大飛在人工智能技術(shù)領(lǐng)域再次取得重大突破,正式發(fā)布星火深度推理模型X1。這一創(chuàng)新成果的發(fā)布,標志著
    的頭像 發(fā)表于 01-15 16:43 ?541次閱讀

    科大發(fā)布星火X1深度推理大模型

    近日,科大宣布了一項重大突破,成功推出了當前全國產(chǎn)算力平臺上唯一的深度推理大模型——
    的頭像 發(fā)表于 01-16 10:46 ?668次閱讀

    AMD將DeepSeek-V3模型集成至Instinct MI300X GPU

    DeepSeek-V3模型經(jīng)過了SGLang的強化,專門針對AI推理進行了深度優(yōu)化。這意味著,當該模型運行在Instinct MI300X GPU上時,將能夠提供更高效、更快速的AI推理
    的頭像 發(fā)表于 02-06 09:41 ?410次閱讀

    云天勵飛上線DeepSeek R1系列模型

    -Distill-Llama-70B大模型、DeepSeek V3/R1 671B MoE大模型也在有序適配中。適配完成后,DeepEdge10芯片平臺將在端、邊、云全面支持DeepSeek
    的頭像 發(fā)表于 02-06 10:39 ?520次閱讀
    云天勵飛上線<b class='flag-5'>DeepSeek</b> <b class='flag-5'>R1</b>系列模型

    昆侖芯率先完成Deepseek訓(xùn)練推理全版本適配

    本文是昆侖芯適配DeepSeek系列推文第一篇,將于近期分別推出在昆侖芯P800上進行DeepSeek-V3/R1推理、訓(xùn)練的深度文章,干貨
    的頭像 發(fā)表于 02-06 15:13 ?943次閱讀
    昆侖芯率先完成<b class='flag-5'>Deepseek</b>訓(xùn)練<b class='flag-5'>推理</b>全版本適配

    扣子平臺支持DeepSeek R1V3模型

    用戶快速實現(xiàn)基于大模型的各類Bot的搭建,并將其輕松發(fā)布至社交平臺、通訊軟件、網(wǎng)站等多個渠道。此次新增對DeepSeek R1V3模型的支持,無疑為扣子平臺的功能和服務(wù)注入了新的活力。 據(jù)了解,
    的頭像 發(fā)表于 02-08 13:42 ?809次閱讀

    開放平臺支持DeepSeek

    今天,DeepSeek全系大模型正式上線開放平臺(包括DeepSeek-V3DeepSeek-R1),支持公有云API調(diào)用、一鍵部署專
    的頭像 發(fā)表于 02-11 09:27 ?681次閱讀

    Deepseek R1大模型離線部署教程

    DeepSeek-R1,是幻方量化旗下AI公司深度求索(DeepSeek)研發(fā)的推理模型 。DeepSeek-R1采用強化學(xué)習(xí)進行后訓(xùn)練,旨
    的頭像 發(fā)表于 02-12 09:37 ?1382次閱讀
    <b class='flag-5'>Deepseek</b> <b class='flag-5'>R1</b>大模型離線部署教程

    浪潮信息發(fā)布元腦R1推理服務(wù)器

    。 DeepSeek R1 671B模型作為業(yè)界領(lǐng)先的深度學(xué)習(xí)模型,其部署一直面臨著較高的難度和成本。而浪潮信息的元腦R1
    的頭像 發(fā)表于 02-17 10:32 ?568次閱讀

    OpenAI O3DeepSeek R1:推理模型性能深度分析

    ,OpenAI的O3在編碼任務(wù)方面超過了DeepSeekR1,而R1在數(shù)學(xué)和推理方面表現(xiàn)出了競爭力,同時在
    的頭像 發(fā)表于 02-18 11:07 ?596次閱讀

    壁仞科技支持DeepSeek-V3滿血版訓(xùn)練推理

    DeepSeek在開源周開源了部分關(guān)鍵模塊的代碼及推理系統(tǒng)參考架構(gòu),再次引發(fā)行業(yè)震動,但目前尚未開源DeepSeek-V3 滿血版完整訓(xùn)練代碼。壁仞科技憑借八大自主創(chuàng)新技術(shù),實現(xiàn)
    的頭像 發(fā)表于 03-04 14:01 ?668次閱讀