一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何構(gòu)建可持續(xù)的ChatGPT高性能服務(wù)器端架構(gòu)?

GPU視覺識別 ? 來源:GPU視覺識別 ? 作者:GPU視覺識別 ? 2023-03-23 13:10 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

邊緣計算 | 液冷服務(wù)器|GPT-4

深度學(xué)習(xí) | AI服務(wù)器 | ChatGPT

在上周舉行的發(fā)布會上,OpenAI宣布推出了GPT-4模型。與之前的版本相比,GPT-4最大的改進(jìn)是其多模態(tài)(multimodal)能力——它不僅能夠閱讀文字,還能識別圖像。值得注意的是,雖然之前有消息稱GPT-4擁有100萬億個參數(shù),但OpenAI并沒有證實這個數(shù)字。與其相比,OpenAI更強(qiáng)調(diào)GPT-4的多模態(tài)能力以及其在各種測試中的表現(xiàn)。

據(jù)OpenAI表示,GPT-4在多種基準(zhǔn)測試中表現(xiàn)出超過絕大多數(shù)人類的水平。例如,在美國律師資格考試Uniform Bar Exam、法學(xué)院入學(xué)考試LSAT、“美國高考”SAT數(shù)學(xué)部分和證據(jù)性閱讀與寫作部分的考試中,GPT-4的得分高于88%的應(yīng)試者。

此外,OpenAI正與多家公司合作,將GPT-4結(jié)合到他們的產(chǎn)品中,這些公司包括Duolingo、Stripe和Khan Academy等。同時,GPT-4模型也將以API的形式提供給付費版ChatGPT Plus的訂閱用戶使用。開發(fā)者可以利用這個API打造各種應(yīng)用。微軟也在宣布中表示,新款必應(yīng)搜索引擎將運行于GPT-4系統(tǒng)之上。

在發(fā)布會上,演示人員用草稿本和紙筆畫了一個非常粗糙的草圖,然后拍照告訴GPT-4他需要做一個長這樣的網(wǎng)站,并需要生成網(wǎng)站代碼。令人印象深刻的是,GPT-4只用了10秒鐘便生成了完整的網(wǎng)站代碼,實現(xiàn)了一鍵生成網(wǎng)站的效果。

ChatGPT的高性能運行離不開一個穩(wěn)定的服務(wù)器端架構(gòu)。建立可持續(xù)的服務(wù)器端架構(gòu),不僅可以保障ChatGPT的穩(wěn)定性和可靠性,還有助于減少能源消耗、降低成本和支持企業(yè)的可持續(xù)發(fā)展戰(zhàn)略。因此,本文將探討如何構(gòu)建可持續(xù)的ChatGPT高性能服務(wù)器端架構(gòu)。

超越“以往的桎梏”ChatGPT突破還是AI延伸?

ChatGPT是一種自然語言處理的技術(shù),可以根據(jù)已有的數(shù)據(jù)訓(xùn)練模型,從而產(chǎn)生更加真實自然的對話。這種技術(shù)的產(chǎn)生自然是延續(xù)了之前的AI發(fā)展過程,但在某些方面也實現(xiàn)了突破。

1、ChatGPT具有更強(qiáng)大的對話生成能力。在早期的AI技術(shù)中,基于規(guī)則和模式的方式進(jìn)行對話生成,因此往往會面臨限制和拘束的問題。但GPT系列模型通過大量的語言訓(xùn)練數(shù)據(jù),可以實現(xiàn)更加真實自然,靈活適應(yīng)對話場景的對話生成。

2、ChatGPT的訓(xùn)練方式也有所改變。在以往,通常需要人工參與到數(shù)據(jù)標(biāo)注的過程中,讓機(jī)器能夠理解人類語言的含義。但是GPT系列通過無監(jiān)督訓(xùn)練的方式,可以從龐大的語言數(shù)據(jù)中學(xué)習(xí)人類語言表達(dá)的規(guī)律和結(jié)構(gòu),進(jìn)而實現(xiàn)更加真實、生動的對話生成。

3、GPT系列模型在處理多語種和多場景對話方面也有優(yōu)勢。傳統(tǒng)的AI技術(shù)主要適應(yīng)單一場景,缺乏語言的多樣性。但是,GPT系列模型因其對多種語言訓(xùn)練的能力,可以處理不同語種之間的對話,也可以應(yīng)對不同場景的對話需求。

ChatGPT兩年內(nèi)發(fā)展與展望

聯(lián)合研發(fā)OpneAI的GPT-4已經(jīng)開發(fā)了三年多,發(fā)布時間不久,它很有可能會在效率上得到大幅提升,但具體將涌現(xiàn)哪些新的代碼能力還不確定。目前尚能確定的是GPT-4將解決像GPT-3.5中存在的一些重要問題,例如優(yōu)化數(shù)據(jù)參數(shù)比例,提高信息處理和規(guī)律發(fā)現(xiàn)的效率,以及提高信息輸入的質(zhì)量等。極有可能會在效率上提升許多,它的推理成本也會大大降低(有可能降低到百倍)。不確定的是GPT-4將有多大的模型規(guī)模(它可能比傳言的大模型還大),以及它是否會具備多模態(tài)的能力(此前尚未確定,未來也難以預(yù)測)。即使模型具備多模態(tài)能力,但由于多模態(tài)信息很難標(biāo)準(zhǔn)化為文本模式,因此,在ChatGPT對世界進(jìn)行豐富多彩的想象時,它目前仍然是有限的。

一、ChatGPT現(xiàn)階段所面臨的很多問題在工程上都有相對簡單的解決方案。例如:

1、解決“hallucination”問題(ChatGPT偏向于產(chǎn)生不準(zhǔn)確的輸出)可以通過優(yōu)化準(zhǔn)確度和引入搜索數(shù)據(jù)來做矯正,而且人類可以參與判斷過程以增加準(zhǔn)確度。此外,在應(yīng)用ChatGPT時,可以先在人類確定好壞的場景下進(jìn)行輔助性判斷。

2、對于ChatGPT的記憶力有限問題,可以使用OpenAI提供的開放接口來解決。特別的,現(xiàn)有的解決方法非常神奇,只需要在提示ChatGPT回答之前,向它說明所提供的內(nèi)容僅是全部信息的一部分,并要求其在聽完后再回答。

3、ChatGPT的自我審查能力不僅僅基于規(guī)則,更基于理解,這種基于理解的自我審查能力實際上更加可調(diào)節(jié)。OpenAI也提出了讓ChatGPT在尊重基本規(guī)則的前提下,發(fā)言尺度可以根據(jù)需求進(jìn)行調(diào)節(jié)的愿景。

pYYBAGQb31aAAui5AAs_3uFBMiY138.png

二、ChatGPT的成本會直線下降,尤其inference的成本會小兩個以上數(shù)量級

ChatGPT的成本將會直線下降,特別是inference的成本會小兩個以上數(shù)量級。 Sam在公開場合曾經(jīng)說過,ChatGPT的inference成本是幾分錢每條。此外,《Key Takes from ChatGPT and Generative AI.pdf》根據(jù)Jefferies Research的詳細(xì)調(diào)研,ChatGPT的inference大概率是基于閑置x86 CPU而非GPU進(jìn)行的。

出于對inference和大型語言模型優(yōu)化空間的理解,我們認(rèn)為inference成本會直線下降,這一點是非常有可能的。成本的下降意味著應(yīng)用范圍和數(shù)據(jù)收集能力的擴(kuò)大。即使ChatGPT的用戶達(dá)到了十億DAU的水平(當(dāng)前的一億DAU的估算也是不準(zhǔn)確的),它也能做到免費。最多只有一些使用次數(shù)的限制。New Bing曾一度限制搜索次數(shù)為60次,但現(xiàn)在也已經(jīng)取消了。這些實際使用中的對話無疑將進(jìn)一步加強(qiáng)ChatGPT的優(yōu)勢地位。

三、對于ChatGPT的“能力”子模型,可能需要重新訓(xùn)練,但“知識”子模型只需要通過instruct prompting的方式輸入新知識即可,無需修改已有的pre-trained模型。

對于許多子任務(wù),只要ChatGPT具備了理解能力和知識量,就可以通過對話、引導(dǎo)和教育的方式,不斷調(diào)整ChatGPT的表現(xiàn),讓它在各個子任務(wù)中發(fā)揮出新的能力。與此相比,過往的AI技術(shù)在面臨新的任務(wù)時,需要重新訓(xùn)練模型,而不能像ChatGPT這樣只需要輸入新的知識。

如果以鋼鐵俠3為比喻,ChatGPT就像通用型鎧甲,能夠勝任大部分工作。通過“教育”和“引導(dǎo)”的方式,可以讓ChatGPT在多個領(lǐng)域中完成各種工作,例如給出醫(yī)療建議、法律參考、編寫代碼框架、制定營銷方案、提供心理咨詢、擔(dān)任面試官等。

需要強(qiáng)調(diào)的是,prompting的重要性。微軟的New Bing并沒有對ChatGPT做出太大的修改,而是通過prompting引導(dǎo)ChatGPT進(jìn)行合理的搜索。在prompting的基礎(chǔ)上,如果要專注于某些方面,例如犧牲對話延續(xù)性來提高信息精度,就需要重新訓(xùn)練模型并進(jìn)行調(diào)整。這可能需要整合其他能力模塊,例如搜索和其他模型的接口,并融合一些工具,就像那些專精型鎧甲一樣。總之,通過不斷錘煉ChatGPT的能力和使用工具,可以拓展其應(yīng)用范圍和解鎖更多的可能性。

四、隨著時間的推移,我們預(yù)測自助型ChatGPT的Prompting能力將得到大幅提高,并會逐步開放更多功能。

這不僅是商業(yè)上的顯而易見的優(yōu)點,還能讓用戶逐步調(diào)教屬于自己的ChatGPT,讓其適應(yīng)自己的偏好并學(xué)習(xí)獨特的知識(而非僅限于技能的刺激)。此外,盡管 ChatGPT 的模型仍然是閉源的,不同應(yīng)用層上的競爭力仍然能夠得以開發(fā)和提高,解決了僅能向OpenAI提供UI設(shè)計的疑慮。想象一下這樣的場景,你的 ChatGPT 能夠記錄你與TA的所有對話,并從你的反饋中逐漸學(xué)習(xí)。如果你是一個優(yōu)秀的營銷經(jīng)理,過了一段時間,你的 ChatGPT 也將獲得比其他人更出色的營銷技能。

五、GPT-4預(yù)計能夠大幅提升ChatGPT的能力,在多個領(lǐng)域達(dá)到“優(yōu)秀員工”的水平。

最近的范式革命已經(jīng)體現(xiàn)了New Bing和ChatGPT之間的巨大差異。我們有充足的理由相信,在以下方面,GPT-4幾乎肯定會有巨大的進(jìn)步:

1、大模型、大數(shù)據(jù)、更優(yōu)化的參數(shù)和數(shù)據(jù)比例。這些因素的優(yōu)化方向很明顯,因為參數(shù)越多、數(shù)據(jù)越多,但是只有合適的比例才能使模型充分吸收數(shù)據(jù)知識。

2、更有針對性的訓(xùn)練數(shù)據(jù)集。OpenAI在“造高質(zhì)量大數(shù)據(jù)”上的能力幾乎獨步天下,而經(jīng)過GPT-3之后的多年摸索,他們已經(jīng)能夠更好地調(diào)整什么數(shù)據(jù)對增強(qiáng)什么模型能力更有用(例如讀取更多代碼和調(diào)整多種語言的比例等)。

3、可能的“能力模塊融合”。New Bing以ChatGPT為基座并延伸了搜索能力。是否有辦法直接將搜索能力融入預(yù)訓(xùn)練大模型?類似地,可以考慮如何高效地將其他能力融入基于預(yù)訓(xùn)練大模型的 ChatGPT,并結(jié)合更多的場景進(jìn)行調(diào)教。因此,預(yù)測在接下來的兩年內(nèi),基于GPT-4的ChatGPT,在大多數(shù)場景下都能夠達(dá)到9級員工的水平,擁有更強(qiáng)大的歸納和“理解”能力。

ChatGPT與GPT能力壁壘探究

ChatGPT的壁壘來源有以下幾個方面:

一、GPT-3是閉源的,OpenAI保持著非常審慎的態(tài)度,不可能把ChatGPT開源。因此,國產(chǎn)機(jī)器學(xué)習(xí)依賴于“開源模型國產(chǎn)實現(xiàn)”路徑在ChatGPT上看起來不現(xiàn)實。

pYYBAGQb31eAZ4ZlAAiV4acIFcc201.png

二、模型參數(shù)的增加需要強(qiáng)大的工程能力,同時也需要讓大模型能夠有效地學(xué)習(xí)到大數(shù)據(jù)中的知識,如何調(diào)教模型產(chǎn)出人類需要的輸出這些問題在OpenAI的博客中都被強(qiáng)調(diào)了。需要具備“原理性”思考習(xí)慣的工程師參與突破這些工程瓶頸。據(jù)悉,OpenAI超高的人才密度成功突破了許多工程瓶頸。因此,需要在上一步工程突破的基礎(chǔ)上進(jìn)行下一步工程積累。

三、特定的商業(yè)環(huán)境下注重實用,例如字節(jié)跳動的推薦算法模型雖然十分大,難度也很大。但是,基于現(xiàn)有模式的持續(xù)優(yōu)化不能形成范式突破。在現(xiàn)實的商業(yè)環(huán)境下,如果不能為業(yè)務(wù)提供正反饋,模型的發(fā)展會受到極大的阻礙。

四、Leadership的技術(shù)判斷力是稀缺資源。New Bing與ChatGPT的成功結(jié)合被視為罕見的奇跡,遠(yuǎn)超市面上其他人。這方面可遇不可求,不是一個可復(fù)制的模式。

poYBAGQb31iAbAHzAAoVXayWoZM200.png

五、數(shù)據(jù)飛輪已經(jīng)形成,ChatGPT是現(xiàn)象級成功的C端產(chǎn)品之一,結(jié)合微軟的資源和渠道加成,一上來就卡住了非常好的身位。因此,ChatGPT的使用數(shù)據(jù)是可以不斷反補(bǔ)模型本身的。ChatGPT的博客也強(qiáng)調(diào)了他們的獨特機(jī)制,使得數(shù)據(jù)的使用、理解和生產(chǎn)都有閉環(huán)。

poYBAGQb31mAC_ljAA-YpTT-TK0711.png

ChatGPT未來AI時代的新工具

ChatGPT的DAU增長現(xiàn)象級,用戶反饋也表現(xiàn)出其異常實用。雖然ChatGPT具有極高的娛樂價值想象,但其顯著提升生產(chǎn)力的能力則更為突出。對話和閱讀實際上是一種較高門檻的娛樂方式,多數(shù)情況下,豐富性和深度并非是娛樂價值的主要決定因素。因此,我們建議在使用ChatGPT時多著眼于提升生產(chǎn)力上。

此外,需要記住,ChatGPT是一種顛覆式的產(chǎn)品,而不是漸進(jìn)式的改進(jìn)。對于科技的早期采用者而言,可能已經(jīng)無法離開ChatGPT,但對于大眾而言,打開搜索引擎進(jìn)行搜索甚至已不是普遍習(xí)慣,使用清晰合理的提示與ChatGPT進(jìn)行對話的程度更是偏低。因此,在未來幾年內(nèi),ChatGPT取代的更多是各種SaaS、云、效率工具,如搜索引擎等。

在實際場景應(yīng)用中,我們應(yīng)該遵循兩個原則:對癥下藥和擇善而從。ChatGPT不等同于搜索引擎和程序,我們應(yīng)該讓它發(fā)揮其所長,而不是去試圖替代其他更為高效的工具或服務(wù)。此外,考慮到當(dāng)前ChatGPT存在明顯的幻覺問題,我們應(yīng)該保持警惕,不在所有場合盲目相信ChatGPT的結(jié)論,而是在需要人工判斷的情況下使用ChatGPT,并由人來審視其結(jié)論的真實性。

pYYBAGQb31qAQZXoABLfKwAtOMA371.png

ChatGPT與人類從本質(zhì)上探究兩者的不同

由于腦科學(xué)和神經(jīng)科學(xué)發(fā)展尚不夠成熟,我們只能從哲學(xué)的角度探究人類和ChatGPT這兩者在本質(zhì)上的不同與相同。

一、從判斷力的角度來看,ChatGPT只能從虛擬數(shù)字中吸取數(shù)字信號,無法與現(xiàn)實世界進(jìn)行真實交互。只有躬行實踐,才能建立判斷力的根基。

二、如果只基于數(shù)字信號進(jìn)行推測,ChatGPT很可能會得出錯誤的結(jié)論。例如牛頓發(fā)現(xiàn)萬有引力的過程,是基于看到蘋果落地從而預(yù)測星星運動的。而當(dāng)時很多人都認(rèn)為太陽是繞著地球轉(zhuǎn)的,如果有一個ChatGPT,很可能會得出錯誤的結(jié)論。因此,在日常生活中,識別思維能力,例如“靈感并發(fā)、靈光一現(xiàn)”的瞬間,也是很有意義的。

三、如果只是歸納現(xiàn)有知識,ChatGPT很可能比人類做得更好。但是創(chuàng)造互聯(lián)網(wǎng)上不存在的新知識,才是ChatGPT做不到的。

四、從理解人的角度來看,人類能夠理解人性,而不需要通過調(diào)研、問卷和網(wǎng)絡(luò)資料。同時,通過現(xiàn)實世界的實踐,人類能夠帶來關(guān)于人性的增量理解。這是ChatGPT所無法達(dá)到的。這暗示著,在真正理解人類時,要去真實世界進(jìn)行實踐,而不是去人云亦云地重復(fù)套路。

ChatGPT探索對算力的需求

AI模型對算力的需求主要體現(xiàn)在訓(xùn)練和推理兩個層面。當(dāng)前主流的人工智能算法通常可分為“訓(xùn)練”和“推理”兩個階段。賽迪數(shù)據(jù)顯示,2022年中國數(shù)字經(jīng)濟(jì)爆發(fā)強(qiáng)大的增長動能,比上年增長20.7%,較2021年提高2.9個百分點,遠(yuǎn)超世界平均水平,數(shù)字經(jīng)濟(jì)規(guī)模達(dá)到45.5萬億元,規(guī)模超排名第三的德國一倍有余,數(shù)字經(jīng)濟(jì)發(fā)展水平穩(wěn)居全球第二位,數(shù)字經(jīng)濟(jì)規(guī)模超過彰顯出數(shù)字經(jīng)濟(jì)大國姿態(tài)。近年來中國也在積極推動數(shù)字產(chǎn)業(yè)創(chuàng)新能力加快提升,推進(jìn)產(chǎn)業(yè)數(shù)字化轉(zhuǎn)型提檔加速,與美國在數(shù)字經(jīng)濟(jì)競爭力上的差距也逐漸縮小。

訓(xùn)練階段

對人工智能模型進(jìn)行調(diào)整和優(yōu)化的過程,以達(dá)到預(yù)期的準(zhǔn)確度。為了讓模型更準(zhǔn)確,訓(xùn)練階段通常需要處理大量的數(shù)據(jù)集,采取反復(fù)迭代的計算方式,需要耗費大量的計算資源。推理階段是在完成訓(xùn)練階段后,應(yīng)用已建立的人工智能模型進(jìn)行推理或預(yù)測輸入數(shù)據(jù)的輸出結(jié)果。

推理階段

相比訓(xùn)練階段對計算能力畢竟要求不那么高,但由于訓(xùn)練出來的人工智能模型需要多次用于推理任務(wù),因此推理運算的總計算量依然很可觀。

poYBAGQb31qAfjRiAADPHA_u5Ts030.png

ChatGPT的算力需求場景可以根據(jù)實際應(yīng)用進(jìn)一步拆分為預(yù)訓(xùn)練、Finetune和日常運營三個階段。預(yù)訓(xùn)練階段通過大量無標(biāo)注的文本數(shù)據(jù)來訓(xùn)練模型的基礎(chǔ)語言能力,得到基礎(chǔ)大模型,例如GPT-1、GPT-2和GPT-3。Finetune階段在基礎(chǔ)大模型的基礎(chǔ)上,進(jìn)行監(jiān)督學(xué)習(xí)、強(qiáng)化學(xué)習(xí)和遷移學(xué)習(xí)等二次或多次訓(xùn)練,以優(yōu)化調(diào)整模型參數(shù)量。日常運營階段基于用戶輸入信息,加載模型參數(shù)進(jìn)行推理計算,并實現(xiàn)最終結(jié)果的反饋輸出。

pYYBAGQb31uAI-kLAADljNwL1ik553.png

預(yù)訓(xùn)練階段:單次算力需求取決于模型參數(shù)量,最高可達(dá)3640 PFlop/s-day

ChatGPT是一個語言模型,其架構(gòu)基于Transformer。Transformer架構(gòu)由編碼和解碼模塊組成,其中GPT只使用解碼模塊。 此外,Transformer還包含三個層級:前饋神經(jīng)網(wǎng)絡(luò),自注意力機(jī)制層和自注意力掩碼層,這些層級都相互作用,以實現(xiàn)模型的高效性。

自注意力機(jī)制是Transformer中最重要的部分之一,其主要作用是計算某個單詞對于所有單詞的權(quán)重(即Attention)。通過這種方式,模型能夠更好地理解文本內(nèi)在關(guān)系,以及對輸入之間的關(guān)系實現(xiàn)高效學(xué)習(xí)。自注意力機(jī)制層還允許模型進(jìn)行更大規(guī)模的并行計算,這使得計算效率得到了大大的提升。

前饋神經(jīng)網(wǎng)絡(luò)層提供高效的數(shù)據(jù)信息存儲和檢索。在這個層面上,模型能夠有效地處理大規(guī)模的數(shù)據(jù)集并實現(xiàn)高效計算。

掩碼層是為了在自注意力機(jī)制中過濾右側(cè)未出現(xiàn)的單詞。這種遮蔽允許模型只能注意到文本中已經(jīng)展示的內(nèi)容,從而保證了計算的準(zhǔn)確性。

與之前的深度學(xué)習(xí)框架相比,Transformer架構(gòu)具有明顯的優(yōu)勢。Transformer架構(gòu)的并行計算能力更強(qiáng),能夠大大提高計算效率。這使得GPT可以訓(xùn)練更大更復(fù)雜的語言模型,并且可以更好地解決語言處理問題。

poYBAGQb31yAOn88AAEC-6XtAQA521.png

Transformer解碼模塊拆解

根據(jù)先前的數(shù)據(jù),預(yù)計日常運營每月需要約7034.7 PFlop/s-day的算力。用戶交互也需要算力支持,每次互動成本約0.01美元。根據(jù)ChatGPT官網(wǎng)近一個月(2023年1月17日至2月17日)總訪問量達(dá)8.89億次,因此2023年1月OpenAI為ChatGPT支付的運營算力成本約為890萬美元。另外,Lambda表示,訓(xùn)練一次1746億參數(shù)的GPT-3模型所需的算力成本超過460萬美元;而OpenAI表示,訓(xùn)練一次1746億參數(shù)的GPT-3模型所需的算力約為3640 PFlop/s-day。我們假設(shè)單位算力成本不變,因此ChatGPT單月運營所需的算力約為7034.7PFlop/s-day。

pYYBAGQb31yAeGnDAACNDMTmbuQ000.png


Finetune階段:預(yù)計ChatGPT單月Finetune的算力需求至少為1350.4PFlop/s-day

ChatGPT是一種需要不斷進(jìn)行Finetune模型調(diào)優(yōu)的模型,以確保它處于最佳應(yīng)用狀態(tài)。這個調(diào)優(yōu)的過程需要開發(fā)者對模型參數(shù)進(jìn)行調(diào)整,以確保輸出內(nèi)容不是有害和失真的,并基于用戶反饋和PPO策略對模型進(jìn)行大規(guī)?;蛐∫?guī)模的迭代訓(xùn)練。這一過程中需要的算力將為OpenAI帶來成本,具體的算力需求和成本金額取決于模型的迭代速度。

預(yù)計ChatGPT單月Finetune算力需求至少為1350.4PFlop/s-day。根據(jù)IDC的預(yù)測,在2022年中國人工智能服務(wù)器負(fù)載中,推理和訓(xùn)練的比例分別為58.5%和41.5%。如果假設(shè)ChatGPT對推理和訓(xùn)練的算力需求分布與之保持一致,且已知單月運營需要算力7034.7 PFlop/s-day、一次預(yù)訓(xùn)練需要算力3640 PFlop/s-day,那么我們可以進(jìn)一步假設(shè)每月最多進(jìn)行一次預(yù)訓(xùn)練。由此我們計算得ChatGPT單月Finetune算力成本至少為1350.4PFlop/s-day。

從 GPT-1 的 1.17 億到 GPT-2 的 15 億,超 10 倍的參數(shù)差距帶來了性能上的飛躍。這似乎意味著,隨著容量和參數(shù)量的增多,模型性能還有更大的潛力——因此,2020 年 GPT-3 的參數(shù)量翻了 100 倍:1750 億,其預(yù)訓(xùn)練數(shù)據(jù)量也高達(dá) 45TB(GPT-2 是 40GB,GPT-1 約 5 GB)。事實證明,海量參數(shù)確實讓 GPT-3 具備了更強(qiáng)大的性能,它在下游任務(wù)表現(xiàn)的非常好。即便是復(fù)雜的 NLP 任務(wù),GPT-3 也表現(xiàn)驚艷:可以模仿人類寫作,編寫 SQL 查詢語句、React 或 JavaScript 代碼等?;仡?GPT-1 、GPT-2 和 GPT-3 這一路的發(fā)展,許多人對 GPT-4 寄予厚望,甚至還有傳言稱 GPT-4 的參數(shù)量將高達(dá) 100 萬億。

鑒于人類反饋機(jī)制下,模型需要不斷獲得人類指導(dǎo)以實現(xiàn)參數(shù)調(diào)優(yōu),所以模型調(diào)整可能會多次進(jìn)行。這需要的算力成本將會更高。

ChatGPT服務(wù)器種類有哪些?

一、中國服務(wù)器發(fā)展現(xiàn)狀

各國加快提升數(shù)字經(jīng)濟(jì)發(fā)展水平,傳統(tǒng)行業(yè)的數(shù)字化進(jìn)程加速,企業(yè)的數(shù)字化智慧化需求旺盛,尤其是5G、大數(shù)據(jù)、人工智能等新興技術(shù)領(lǐng)域快速發(fā)展,持續(xù)賦能服務(wù)器行業(yè)。

1、高算力需求帶動服務(wù)器行業(yè)迎來發(fā)展新機(jī)遇

算力作為一種核心生產(chǎn)力,應(yīng)用在互聯(lián)網(wǎng)、政務(wù)、金融等各領(lǐng)域場景隨著元宇宙、Web3.0等新概念的出現(xiàn),更復(fù)雜的計算場景產(chǎn)生高算力需求。推動服務(wù)器產(chǎn)品向更高計算性能方向升級。

2、大型數(shù)據(jù)中心建設(shè)加快服務(wù)器市場規(guī)模增長

大規(guī)模數(shù)據(jù)中心建設(shè)是全球服務(wù)器市場增長的主要動力、北美、亞大西歐等全球大部分地區(qū)的數(shù)據(jù)中心服務(wù)器采購持續(xù)增長。

二、ChatGPT需要的服務(wù)器:AI訓(xùn)練型服務(wù)器+AI推理型服務(wù)器

邊緣計算需要大量機(jī)器處理高負(fù)載請求,而傳統(tǒng)的CS模式已經(jīng)無法滿足這一需求。當(dāng)前的互聯(lián)網(wǎng)架構(gòu)正在向以CDN服務(wù)為核心的CES模式轉(zhuǎn)變,但CES模式在邊緣上處理非結(jié)構(gòu)化數(shù)據(jù)存儲和處理的需求方面存在局限性。因此,引入Edge端以解決無法處理業(yè)務(wù)的問題。在AI訓(xùn)練場景下,由于計算量和數(shù)據(jù)類型的變化,C-E-S也無法滿足需求,因此計算架構(gòu)在回歸到C-S,并朝向高效率并行計算的方向演變。

poYBAGQb312AdXQXAAEkbwgaMhc235.png

計算架構(gòu)演變過程

作為硬件核心,服務(wù)器面對不同的計算場景,而計算架構(gòu)變化是服務(wù)器技術(shù)演進(jìn)的關(guān)鍵。隨著云計算、邊緣計算和AI訓(xùn)練等計算架構(gòu)的出現(xiàn),服務(wù)器需求也在不斷變化。單一服務(wù)器更加關(guān)注個體性能,而云數(shù)據(jù)中心服務(wù)器更關(guān)注整體性能。邊緣計算對數(shù)據(jù)交互實時性的要求更高,并需要更多的服務(wù)器設(shè)施。AI服務(wù)器主要用于人工智能訓(xùn)練,使用向量/張量數(shù)據(jù)類型,并通過大規(guī)模并行計算來提高效率。

同一技術(shù)路線下,服務(wù)器面向數(shù)據(jù)處理需求持續(xù)迭代。復(fù)盤主流服務(wù)器發(fā)展歷程來看,隨著數(shù)據(jù)量激增、數(shù)據(jù)場景復(fù)雜化,不同類型服務(wù)器發(fā)展驅(qū)動力也有所差異。具體來看:

傳統(tǒng)的通用服務(wù)器發(fā)展較為緩慢,主要是通過處理器時鐘頻率、指令集并行度、核數(shù)等硬件指標(biāo)的提升來優(yōu)化其性能。相比之下,云計算服務(wù)器快速發(fā)展成熟,這一過程始于20世紀(jì)80年代,隨后在VMware Workstation、亞馬遜AWS等產(chǎn)品的推出,以及OpenStack開源項目的出現(xiàn)下加速了。目前,云計算在全球范圍內(nèi)已經(jīng)比較普及,許多公司都使用流行的云服務(wù)提供商(如AWS、Azure、Google Cloud等)來存儲和處理數(shù)據(jù)。邊緣計算服務(wù)器概念于2015年孵化,近年來已出現(xiàn)諸如AWS Greengrass、谷歌GMEC等邊緣計算平臺。隨著越來越多的設(shè)備(如可穿戴設(shè)備和智能家居設(shè)備)連接到互聯(lián)網(wǎng),邊緣計算技術(shù)的需求也日益增長。最后,AI服務(wù)器是為人工智能和機(jī)器學(xué)習(xí)工作量身定制的,其硬件架構(gòu)更加適合對訓(xùn)練算力的需求。隨著人工智能的應(yīng)用變得越來越廣泛,AI服務(wù)器的需求也在增加。

三、云計算服務(wù)器:大規(guī)模數(shù)據(jù)處理需求下的商業(yè)模式變革

云計算服務(wù)器的出現(xiàn)是為了滿足數(shù)據(jù)量激增所帶來的高性能計算需求。傳統(tǒng)通用服務(wù)器通過提高硬件指標(biāo)提升性能,但隨著CPU工藝和單個CPU核心數(shù)量接近極限,無法滿足數(shù)據(jù)量激增的性能需求。相比之下,云計算服務(wù)器采用虛擬化技術(shù),將計算和存儲資源進(jìn)行池化,把原本物理隔離的單臺計算資源進(jìn)行虛擬化和集中化處理,并以集群化處理來達(dá)到單臺服務(wù)器所難以實現(xiàn)的高性能計算。此外,云計算服務(wù)器的計算能力可以通過增加虛擬化服務(wù)器的數(shù)量來進(jìn)行擴(kuò)展,突破單個服務(wù)器硬件限制,應(yīng)對數(shù)據(jù)量激增所帶來的性能需求。

云計算服務(wù)器實際上節(jié)約了部分硬件成本,并降低了算力采購門檻。在過去,大規(guī)模數(shù)據(jù)處理成本極高,主要因為通用服務(wù)器的購置和運維成本居高不下。而傳統(tǒng)服務(wù)器通常包含處理器摸塊、存儲模塊、網(wǎng)絡(luò)模塊、電源、風(fēng)扇等全套設(shè)備。云計算服務(wù)器體系結(jié)構(gòu)精簡,省去重復(fù)的模塊,提高了利用率。此外,云計算服務(wù)器針對節(jié)能需求,將存儲模塊進(jìn)行虛擬化,并去除了主板上的非必要硬件,降低了整體計算成本。另外,流量計費模式也有助于許多廠商負(fù)擔(dān)算力開支,降低了算力采購門檻。

四、邊緣服務(wù)器:高數(shù)據(jù)密度和帶寬限制下保證低時延

邊緣計算是一種在云計算基礎(chǔ)之上引入邊緣層的計算模式。它位于靠近物或數(shù)據(jù)源頭的網(wǎng)絡(luò)邊緣,通過提供計算、存儲和網(wǎng)絡(luò)等資源來協(xié)助應(yīng)用程序。邊緣計算基于一個新的體系架構(gòu),引入了邊緣層,使得云服務(wù)可以擴(kuò)展到網(wǎng)絡(luò)邊緣。在這個體系架構(gòu)中,終端層由物聯(lián)網(wǎng)設(shè)備組成,這些設(shè)備位于最靠近用戶的地方,負(fù)責(zé)收集原始數(shù)據(jù)并上傳至上層進(jìn)行計算;邊緣層則由路由器、網(wǎng)關(guān)、邊緣服務(wù)器等設(shè)備組成,這些設(shè)備由于距離用戶較近,可以運行延遲敏感型應(yīng)用程序,滿足用戶對低時延的要求;云層則由高性能服務(wù)器等設(shè)備組成,可以處理復(fù)雜的計算任務(wù)。

poYBAGQb312AQ13ZAACOraArcN0575.png

邊緣計算架構(gòu)

邊緣計算相對于云計算具有實時性、低成本和安全性等優(yōu)勢。它將計算任務(wù)從云計算中心部分或全部遷移到離用戶更近的網(wǎng)絡(luò)邊緣進(jìn)行處理,從而提高了數(shù)據(jù)傳輸性能和處理的實時性。同時,邊緣計算還可以避免遠(yuǎn)距離傳輸數(shù)據(jù)帶來的成本問題,并降低云計算中心的計算負(fù)載。此外,邊緣計算將大部分?jǐn)?shù)據(jù)在本地設(shè)備和邊緣層設(shè)備中處理,減少上傳至云端的數(shù)據(jù)量,降低了數(shù)據(jù)泄露的風(fēng)險,因此具備更高的安全性。

五、AI服務(wù)器:更適合深度學(xué)習(xí)等AI訓(xùn)練場景

在現(xiàn)代AI領(lǐng)域中,由于大規(guī)模的計算需求,普通的CPU服務(wù)器已經(jīng)不能滿足需求。相較于CPU,GPU(圖形處理單元)具備更適合進(jìn)行大規(guī)模并行計算的架構(gòu)設(shè)計,因此AI服務(wù)器采用GPU架構(gòu)來提高計算性能。

與通用服務(wù)器不同的是,AI服務(wù)器為異構(gòu)服務(wù)器。意味著它可以使用不同的組合方式來提高計算性能,例如使用CPUGPU、CPUTPU、CPU其他加速卡等,但是以GPU提供計算能力為主要方式。

以ChatGPT模型為例,它采用了并行計算的方式。相比于RNN模型,它能夠為輸入序列中的任何字符提供上下文,從而不僅精度更高,而且可以一次處理所有輸入,而不是一次只處理一個詞。

從GPU的計算方式來看,GPU架構(gòu)采用了大量的計算單元和超長的流水線,因此與CPU相比,可以進(jìn)行大吞吐量的并行計算。這種計算能力特別適合進(jìn)行大規(guī)模AI并行計算。

pYYBAGQb316AGlLjAADEPAasn_M645.png

深度學(xué)習(xí)主要進(jìn)行矩陣向量計算,AI服務(wù)器處理效率更高。從ChatGPT模型結(jié)構(gòu)來看,基于Transformer架構(gòu),ChatGPT模型采用注意力機(jī)制進(jìn)行文本單詞權(quán)重賦值,并向前饋神經(jīng)網(wǎng)絡(luò)輸出數(shù)值結(jié)果,這一過程需要進(jìn)行大量向量及張量運算。而AI服務(wù)器中往往集成多個AI GPU,AI GPU通常支持多重矩陣運算,例如卷積、池化和激活函數(shù),以加速深度學(xué)習(xí)算法的運算。因此在人工智能場景下,AI服務(wù)器往往較GPU服務(wù)器計算效率更高,具備一定應(yīng)用優(yōu)勢。

六、ChatGPT需要的芯片:CPU+GPU、FPGA、ASIC

GPT模型訓(xùn)練需要大算力支持,或?qū)鞟I服務(wù)器建設(shè)需求。我們認(rèn)為,隨著國內(nèi)廠商陸續(xù)布局ChatGPT類似產(chǎn)品,GPT大模型預(yù)訓(xùn)練、調(diào)優(yōu)及日常運營或?qū)泶罅克懔π枨螅M(jìn)而帶動國內(nèi)AI服務(wù)器市場放量。以GPT-3 175B模型預(yù)訓(xùn)練過程為例,據(jù)OpenAI,進(jìn)行一次GPT-3 175B模型的預(yù)訓(xùn)練需要的算力約3640 PFlop/s-day。我們假設(shè)以浪潮信息目前算力最強(qiáng)的AI服務(wù)器NF5688M6(PFlop/s)進(jìn)行計算,在預(yù)訓(xùn)練期限分別為3、5、10天的假設(shè)下,單一廠商需采購的AI服務(wù)器數(shù)量分別為243、146、73臺。

AI大模型訓(xùn)練需求火熱,智能算力規(guī)模增長有望帶動AI服務(wù)器放量。據(jù)IDC數(shù)據(jù),以半精度(FP16)運算能力換算,2021年中國智能算力規(guī)模約155.2EFLOPS。隨著AI模型日益復(fù)雜、計算數(shù)據(jù)量快速增長、人工智能應(yīng)用場景不斷深化,未來國內(nèi)智能算力規(guī)模有望實現(xiàn)快速增長。IDC預(yù)計2022年國內(nèi)智能算力規(guī)模將同比增長72.7%至268.0 EFLOPS,預(yù)計2026年智能算力規(guī)模將達(dá)1271.4 EFLOPS,2022-2026年算力規(guī)模CAGR將達(dá)69.2%。我們認(rèn)為,AI服務(wù)器作為承載智能算力運算的主要基礎(chǔ)設(shè)施,有望受益于下游需求放量。

總結(jié)

ChatGPT是一個高性能的文件傳輸協(xié)議,需要一個可持續(xù)的服務(wù)器端架構(gòu)來支持它的持續(xù)發(fā)展。以下是一個簡單的指南:

一、了解客戶需求

在構(gòu)建任何服務(wù)器端架構(gòu)之前,需要知道客戶的需求。你需要考慮的問題包括:

1、用戶數(shù)量:預(yù)計有多少用戶使用服務(wù)?

2、數(shù)據(jù)量:每個用戶將存儲多少數(shù)據(jù)?預(yù)計服務(wù)將處理多少數(shù)據(jù)?

3、設(shè)備類型和平臺:用戶將使用哪些設(shè)備和平臺來訪問服務(wù)?

二、選擇正確的基礎(chǔ)架構(gòu)

選擇正確的基礎(chǔ)架構(gòu)對于構(gòu)建可持續(xù)的服務(wù)器端架構(gòu)至關(guān)重要。其中一些常見的選擇包括:

1、物理服務(wù)器:這是在本地運行服務(wù)器的經(jīng)典方式。這需要購買服務(wù)器硬件和管理基礎(chǔ)架構(gòu)。

2、虛擬專用服務(wù)器(VPS):VPS是在共享物理服務(wù)器上運行的虛擬服務(wù)器。大多數(shù)云服務(wù)商都提供VPS。

3、云計算:云計算允許你根據(jù)實際使用情況逐步擴(kuò)展和縮小基礎(chǔ)架構(gòu)。其中一些提供商包括Amazon Web Services(AWS)、Microsoft Azure和Google Cloud Platform(GCP)。

三、設(shè)計可擴(kuò)展的架構(gòu)

在設(shè)計你的服務(wù)器端架構(gòu)時,你需要考慮如何擴(kuò)展它以處理更多的流量和用戶。其中一些關(guān)鍵考慮因素包括:

1、橫向擴(kuò)展:這是向系統(tǒng)添加更多服務(wù)器以處理更多流量和用戶的過程。

2、縱向擴(kuò)展:這是將相同的服務(wù)器升級以處理更多流量和用戶的過程。

3、負(fù)載均衡:這是將請求分配給多個服務(wù)器以減輕負(fù)載的過程。

4、緩存:這是將請求的結(jié)果存儲在內(nèi)存中以提高響應(yīng)速度的過程。

四、確保安全和可靠性

在構(gòu)建任何服務(wù)器端架構(gòu)時,安全和可靠性都是至關(guān)重要的。這意味著你需要考慮以下事項:

1、數(shù)據(jù)備份和恢復(fù):你需要定期備份數(shù)據(jù),以防止數(shù)據(jù)丟失,并在必要時能夠快速恢復(fù)數(shù)據(jù)。

2、安全性:你需要確保你的服務(wù)器端架構(gòu)是安全的,包括使用安全的傳輸協(xié)議、對數(shù)據(jù)進(jìn)行加密等。

3、監(jiān)控和警報:你需要設(shè)置監(jiān)控和警報系統(tǒng),以便在服務(wù)器出現(xiàn)問題時及時得到通知。

可持續(xù)的ChatGPT高性能服務(wù)器端架構(gòu)需要考慮多個因素,包括用戶需求、基礎(chǔ)架構(gòu)選擇、可擴(kuò)展性設(shè)計以及安全和可靠性保障。通過綜合評估這些要素并采取相應(yīng)的措施。

審核編輯黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 服務(wù)器
    +關(guān)注

    關(guān)注

    13

    文章

    9786

    瀏覽量

    87906
  • AI
    AI
    +關(guān)注

    關(guān)注

    88

    文章

    35065

    瀏覽量

    279349
  • ChatGPT
    +關(guān)注

    關(guān)注

    29

    文章

    1589

    瀏覽量

    9076
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    MKW45B41Z客戶無法從服務(wù)器獲取服務(wù)是為什么?

    。MKW45B41Z (自定義板) 充當(dāng)中央設(shè)備客戶角色。MKW45 客戶掃描外圍設(shè)備(NRF 連接)設(shè)備并連接到外圍設(shè)備(NRF 連接)設(shè)備。連接 MKW45(自定義板卡)后,客戶無法從
    發(fā)表于 03-28 07:40

    賦能持續(xù)云計算:MiTAC 神雲(yún)科技亮相 CloudFest 2025展示節(jié)能服務(wù)器創(chuàng)新成果

    ,充分體現(xiàn)了神雲(yún)科技對持續(xù)計算、優(yōu)化能效和高性能云基礎(chǔ)設(shè)施的承諾。 賦能持續(xù)云計算:MiTAC 神雲(yún)科技亮相 CloudFest 202
    的頭像 發(fā)表于 03-18 16:49 ?320次閱讀

    Supermicro高性能服務(wù)器量產(chǎn)供貨,優(yōu)化多重工作負(fù)載

    Supermicro, Inc.近日宣布其搭載Intel Xeon 6900系列性能架構(gòu)處理高性能服務(wù)器已開始量產(chǎn)供貨。 這一系列
    的頭像 發(fā)表于 01-21 11:00 ?477次閱讀

    使用SSR構(gòu)建React應(yīng)用的步驟

    使用SSR(Server-Side Rendering,服務(wù)器端渲染)構(gòu)建React應(yīng)用的步驟通常包括以下幾個階段: 一、項目初始化與配置 創(chuàng)建React項目 : 可以使用Create React
    的頭像 發(fā)表于 11-18 11:30 ?827次閱讀

    GPU服務(wù)器AI網(wǎng)絡(luò)架構(gòu)設(shè)計

    眾所周知,在大型模型訓(xùn)練中,通常采用每臺服務(wù)器配備多個GPU的集群架構(gòu)。在上一篇文章《高性能GPU服務(wù)器AI網(wǎng)絡(luò)架構(gòu)(上篇)》中,我們對GP
    的頭像 發(fā)表于 11-05 16:20 ?1224次閱讀
    GPU<b class='flag-5'>服務(wù)器</b>AI網(wǎng)絡(luò)<b class='flag-5'>架構(gòu)</b>設(shè)計

    服務(wù)器錯誤是怎么回事

    服務(wù)器錯誤通常指的是在訪問網(wǎng)站或應(yīng)用程序時,由于服務(wù)器端的問題導(dǎo)致無法正常處理請求。主機(jī)測評小編為您整理發(fā)布一些常見的服務(wù)器錯誤及其可能的原因。
    的頭像 發(fā)表于 11-04 11:11 ?1185次閱讀

    高性能服務(wù)器有什么用處?

    高性能服務(wù)器是一種基于云計算技術(shù)的虛擬化服務(wù)器,具有高性能、靈活性、可靠性和安全性等特點。它廣泛應(yīng)用于網(wǎng)絡(luò)托管服務(wù)、數(shù)據(jù)備份與恢復(fù)、大數(shù)據(jù)
    的頭像 發(fā)表于 11-04 10:22 ?546次閱讀

    GPU高性能服務(wù)器配置

    GPU高性能服務(wù)器作為提升計算速度和效率的關(guān)鍵設(shè)備,在各大應(yīng)用場景中發(fā)揮著越來越重要的作用。在此,petacloud.ai小編為你介紹GPU高性能服務(wù)器的配置要點。
    的頭像 發(fā)表于 10-21 10:42 ?844次閱讀

    基于高通主板的ARM架構(gòu)服務(wù)器

    架構(gòu)主導(dǎo)服務(wù)器市場,現(xiàn)面臨挑戰(zhàn)。Arm 2008 年入服務(wù)器領(lǐng)域,雖因性能與生態(tài)問題未大突破,但近幾年重新沖刺。 (二)技術(shù)創(chuàng)新引領(lǐng) Arm 的 Neoverse 平臺不斷發(fā)展。20
    的頭像 發(fā)表于 09-11 10:53 ?1135次閱讀

    使用NS1串口服務(wù)器HTTP模式上傳服務(wù)器數(shù)據(jù)

    HTTP協(xié)議工作于客戶-服務(wù)端架構(gòu)之上。瀏覽作為HTTP客戶通過URL向HTTP服務(wù)端即W
    的頭像 發(fā)表于 08-30 12:36 ?976次閱讀
    使用NS1串口<b class='flag-5'>服務(wù)器</b>HTTP模式上傳<b class='flag-5'>服務(wù)器</b>數(shù)據(jù)

    AI云服務(wù)器:開啟智能計算新時代

    一、AI云服務(wù)器的定義與特點 AI云服務(wù)器的定義 AI云服務(wù)器是一種基于云計算技術(shù),專為處理人工智能相關(guān)工作負(fù)載而構(gòu)建服務(wù)器。它集成了強(qiáng)大
    的頭像 發(fā)表于 08-09 16:08 ?1642次閱讀

    國產(chǎn)高性能溫補(bǔ)晶振用于服務(wù)器光模塊,替換SiTime

    國產(chǎn)高性能溫補(bǔ)晶振用于服務(wù)器光模塊,替換SiTime
    的頭像 發(fā)表于 08-09 09:41 ?882次閱讀
    國產(chǎn)<b class='flag-5'>高性能</b>溫補(bǔ)晶振用于<b class='flag-5'>服務(wù)器</b>光模塊,替換SiTime

    gpu服務(wù)器與cpu服務(wù)器的區(qū)別對比,終于知道怎么選了!

    gpu服務(wù)器與cpu服務(wù)器的區(qū)別主要體現(xiàn)在架構(gòu)設(shè)計、性能特點、能耗效率、應(yīng)用場景、市場定位等方面,在以上幾個方面均存在顯著差異。CPU服務(wù)器
    的頭像 發(fā)表于 08-01 11:41 ?1020次閱讀

    InRouter路由與中心OpenVPN服務(wù)器構(gòu)建OpenVPN的方法

    本文檔主要講述了關(guān)于映翰通InRouter路由與中心OpenVPN 服務(wù)器構(gòu)建OpenVPN的方法。InRouter 61X,Inrouter 71X全系列產(chǎn)品均支持VPN功能,并
    發(fā)表于 07-26 07:26

    請問DCTCP與DCUDP 的登錄數(shù)據(jù)包和心跳數(shù)據(jù)包與服務(wù)器端是如何交互的?

    DCTCP與DCUDP的登錄數(shù)據(jù)包和心跳數(shù)據(jù)包與服務(wù)器端是如何交互的?
    發(fā)表于 07-25 06:37