一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

海光DCU率先展開文心系列模型的深度技術(shù)合作 FLOPs利用率(MFU)達47%

A面面觀 ? 2025-07-01 14:35 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

海光DCU實現(xiàn)文心4.5模型高效適配; FLOPs利用率突破47%。

2025年6月30日,在百度文心4.5系列大模型正式開源當日,海光信息技術(shù)股份有限公司宣布其深度計算單元(DCU)率先完成對該系列模型的深度技術(shù)適配,預訓練模型FLOPs利用率(MFU)達到47%,在多個文本與多模態(tài)基準測試中取得SOTA水平。此次合作標志著國產(chǎn)算力基礎(chǔ)設施與大模型技術(shù)的協(xié)同創(chuàng)新進入新階段。

技術(shù)突破:異構(gòu)計算架構(gòu)賦能MoE模型高效訓練

海光DCU基于GPGPU通用架構(gòu),通過飛槳深度學習框架對文心4.5系列模型實現(xiàn)全流程優(yōu)化,涵蓋47B/3B混合專家(MoE)模型及0.3B稠密參數(shù)模型的高效訓練、推理與部署。其創(chuàng)新性體現(xiàn)在:

  • 多模態(tài)異構(gòu)計算:針對MoE架構(gòu)設計動態(tài)負載均衡策略,顯存帶寬利用率提升30%

  • 混合精度優(yōu)化:采用FP8技術(shù)降低顯存占用,使424B總參數(shù)量模型的訓練效率接近國際一線水平

  • 生態(tài)兼容性:依托DTK軟件棧實現(xiàn)與文心模型的無縫對接,適配周期縮短50%

行業(yè)價值:自主可控技術(shù)體系加速AI落地

此次合作驗證了國產(chǎn)DCU在高性能計算領(lǐng)域的三大優(yōu)勢:

  1. 效能領(lǐng)先:47%的MFU利用率較行業(yè)平均水平提升15%以上

  2. 多模態(tài)支持:文心4.5的跨模態(tài)理解能力在DCU平臺上實現(xiàn)無損遷移

  3. 產(chǎn)業(yè)鏈安全:從芯片、框架到模型的完整技術(shù)自主權(quán),為金融、制造等行業(yè)提供可靠算力選擇

海光DCU與文心模型的深度適配,證明了國產(chǎn)算力支撐前沿AI創(chuàng)新的能力。未來將持續(xù)優(yōu)化千億級參數(shù)模型的訓練效率,推動中國智能算力生態(tài)建設。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • DCU
    DCU
    +關(guān)注

    關(guān)注

    0

    文章

    15

    瀏覽量

    2876
  • 海光信息
    +關(guān)注

    關(guān)注

    0

    文章

    25

    瀏覽量

    2325
  • 文心一言
    +關(guān)注

    關(guān)注

    0

    文章

    133

    瀏覽量

    1862
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3145

    瀏覽量

    4068
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    寧暢與與百度心大模型展開深度技術(shù)合作

    與部署。 憑借覆蓋訓練、推理、微調(diào)全流程的AI?服務器產(chǎn)品矩陣,寧暢幫助企業(yè)在大模型時代一鍵打通算力與應用“任督二脈”,顯著縮短模型落地周期。 在已啟動的深度技術(shù)合作中,雙方將基于
    的頭像 發(fā)表于 07-07 16:26 ?209次閱讀

    黑芝麻智能與心大模型技術(shù)合作升級

    近日,心大模型正式開源,黑芝麻智能即日起快速啟動與心大模型技術(shù)合作。
    的頭像 發(fā)表于 07-04 17:24 ?393次閱讀
    黑芝麻智能與<b class='flag-5'>文</b>心大<b class='flag-5'>模型</b><b class='flag-5'>技術(shù)合作</b>升級

    龍芯中科與心系列模型開展深度技術(shù)合作

    ”解決方案。 強強聯(lián)合!自主架構(gòu)賦能大模型訓練 心大模型 心4.5系列模型均使用飛槳
    的頭像 發(fā)表于 07-02 16:53 ?687次閱讀

    兆芯率先展開心系列模型深度技術(shù)合作

    6月30日,百度正式開源心大模型4.5系列等10款模型,并實現(xiàn)預訓練權(quán)重和推理代碼的完全開源,兆芯率先
    的頭像 發(fā)表于 07-01 10:49 ?378次閱讀

    拼版怎么拼好,板廠經(jīng)常說利用率太低,多收費用?

    做板的時候,板廠經(jīng)常說我拼版利用率太低,要多收取費用,哪位大神知道怎么算利用率
    發(fā)表于 05-14 13:42

    mes工廠管理系統(tǒng):如何讓設備利用率提升50%?

    在制造業(yè)競爭日益激烈的今天,設備利用率直接決定了企業(yè)的盈利能力。許多工廠管理者都在思考同一個問題:如何在不增加設備投資的情況下,讓現(xiàn)有產(chǎn)能發(fā)揮出最大價值?MES工廠管理系統(tǒng)正是解決這一難題的金鑰匙
    的頭像 發(fā)表于 05-09 15:55 ?203次閱讀
    mes工廠管理系統(tǒng):如何讓設備<b class='flag-5'>利用率</b>提升50%?

    DeepSeek MoE架構(gòu)下的網(wǎng)絡負載如何優(yōu)化?解鎖90%網(wǎng)絡利用率的關(guān)鍵策略

    、All-to-All等),網(wǎng)絡面臨高并發(fā)、低延遲、無損傳輸?shù)膰揽列枨蟆H欢?,傳統(tǒng)以太網(wǎng)的網(wǎng)絡利用率長期徘徊在35%~40%,成為制約AI算力釋放的關(guān)鍵瓶頸。
    的頭像 發(fā)表于 04-28 12:04 ?385次閱讀
    DeepSeek MoE架構(gòu)下的網(wǎng)絡負載如何優(yōu)化?解鎖90%網(wǎng)絡<b class='flag-5'>利用率</b>的關(guān)鍵策略

    百度下一代心大模型正式開源

    隨著心大模型的迭代升級和成本不斷下降,心一言將于4月1日0時起全面免費,所有PC端和APP端用戶均可體驗心系列最新
    的頭像 發(fā)表于 02-17 13:44 ?517次閱讀

    信息技術(shù)團隊成功適配DeepSeek大模型

    方面取得了重要進展。 DeepSeek-Janus-Pro是團隊近期完成適配優(yōu)化的第三款DeepSeek大模型。此次適配工作的順利完成,充分展示了
    的頭像 發(fā)表于 02-08 14:10 ?671次閱讀

    信息技術(shù)團隊完成模型DCU國產(chǎn)化適配

    近期,中科曙光國家先進計算產(chǎn)業(yè)創(chuàng)新中心有限公司對外發(fā)布了一則重要消息。據(jù)悉,該公司的信息技術(shù)團隊已經(jīng)成功完成了DeepSeek V3和R1模型
    的頭像 發(fā)表于 02-06 11:37 ?934次閱讀

    電子發(fā)燒友榮獲電子工業(yè)出版社博視點 “2024 年度卓越合作伙伴”

    近日,憑借過去一年在書籍測評活動等方面的深度合作與卓越表現(xiàn),電子發(fā)燒友榮膺電子工業(yè)出版社博視點 “2024 年度卓越合作伙伴” 的殊榮,表彰電子發(fā)燒友在過去一年中與博
    發(fā)表于 01-20 15:46

    靈云AICP平臺成功通過海CPU與DCU生態(tài)兼容性認證

    近日,國內(nèi)領(lǐng)先的智能技術(shù)提供商捷通華聲宣布,其自主研發(fā)的靈云AICP(全智能能力平臺)已成功完成了與信息技術(shù)股份有限公司(簡稱“
    的頭像 發(fā)表于 01-18 14:11 ?1412次閱讀

    中科創(chuàng)與Dirac達成戰(zhàn)略合作

    汽車音頻等領(lǐng)域展開深度技術(shù)合作,將充分整合各自的優(yōu)勢資源,助力全球汽車廠商打造更具前沿的車載音頻體驗,為用戶帶來全新的智能出行感受。
    的頭像 發(fā)表于 11-14 11:39 ?719次閱讀

    交換機內(nèi)存利用率過高會是什么問題

    以解決,可能會引發(fā)一系列問題,影響整個網(wǎng)絡的性能和穩(wěn)定性。 1. 內(nèi)存利用率過高的原因 交換機內(nèi)存利用率過高的原因多種多樣,以下是一些常見的因素: 1.1 大量的數(shù)據(jù)包轉(zhuǎn)發(fā) 隨著網(wǎng)絡中設備數(shù)量的增加,交換機需要處理的數(shù)據(jù)包數(shù)
    的頭像 發(fā)表于 10-18 09:53 ?2173次閱讀

    異構(gòu)混訓整合不同架構(gòu)芯片資源,提高算力利用率

    的解決方案。通過混合使用多種異構(gòu)芯片,可以充分利用不同芯片的優(yōu)勢,提高算力利用率,降低算力成本,并推動AI技術(shù)的廣泛應用。 ? 異構(gòu)混訓能夠整合不同架構(gòu)芯片資源 ? 在2024年世界人工智能大會AI基礎(chǔ)設施論壇上,無問芯穹聯(lián)合創(chuàng)
    的頭像 發(fā)表于 07-18 00:11 ?4246次閱讀