一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

摩爾線程發(fā)布Torch-MUSA v2.0.0版本 支持原生FP8和PyTorch 2.5.0

摩爾線程 ? 來源:摩爾線程 ? 2025-05-11 16:41 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

近日,摩爾線程正式發(fā)布Torch-MUSA v2.0.0版本,這是其面向PyTorch深度學(xué)習(xí)框架的MUSA擴(kuò)展庫的重要升級。新版本基于MUSA Compute Capability 3.1計(jì)算架構(gòu),支持原生FP8數(shù)據(jù)類型,支持PyTorch 2.5.0,并通過多項(xiàng)針對MUSA計(jì)算平臺(tái)的性能優(yōu)化,進(jìn)一步提升了對AI模型和大規(guī)模數(shù)據(jù)處理的支持能力。

FP8原生支持,國產(chǎn)GPU的技術(shù)突破

作為本次升級的核心亮點(diǎn),Torch-MUSA v2.0.0率先在國產(chǎn)GPU上實(shí)現(xiàn)了對FP8數(shù)據(jù)類型的完整支持。FP8是當(dāng)前AI計(jì)算的一種前沿低精度格式,在支持原生FP8的GPU上,大語言模型(LLM)訓(xùn)練采用FP8混合精度可大幅提高GPU算力,顯著降低顯存占用。摩爾線程基于新一代 MUSA Compute Capability 3.1 計(jì)算架構(gòu)的全功能 GPU 原生支持 FP8 計(jì)算,這為 Torch-MUSA v2.0.0 實(shí)現(xiàn) FP8 矩陣乘法和分布式通信優(yōu)化提供了堅(jiān)實(shí)的基礎(chǔ)。依托這一底層架構(gòu)優(yōu)勢,Torch-MUSA v2.0.0 能夠充分發(fā)揮 FP8 的計(jì)算效能,顯著提升大語言模型訓(xùn)練和推理的效率。

三大關(guān)鍵優(yōu)化,提升AI計(jì)算效率

Torch-MUSA v2.0.0在MUSA計(jì)算平臺(tái)引入多項(xiàng)創(chuàng)新功能,進(jìn)一步提升深度學(xué)習(xí)任務(wù)的執(zhí)行效率:

新增虛擬內(nèi)存管理支持:

MUSA虛擬內(nèi)存管理技術(shù)能夠有效緩解GPU內(nèi)存碎片化問題,降低模型訓(xùn)練過程中的峰值內(nèi)存占用,特別適用于FSDP、DeepSpeed和Megatron-LM等主流大模型訓(xùn)練框架。

新增MUSA Graph支持:

MUSA Graph技術(shù)將多個(gè)MUSA內(nèi)核整合到一個(gè)圖中,通過單次CPU調(diào)度大幅減少啟動(dòng)開銷,提升計(jì)算效率,同時(shí)與CUDA Graph接口高效兼容。

torch.compile增加Triton后端支持:

為torch.compile提供了Triton-MUSA后端支持,開發(fā)者可以直接使用PyTorch原生接口,獲得更高效的性能表現(xiàn)。

支持PyTorch 2.5.0,生態(tài)兼容性更強(qiáng)

Torch-MUSA v2.0.0在完整支持PyTorch 2.2.0的基礎(chǔ)上,新增了對PyTorch 2.5.0的支持,使開發(fā)者能夠在基于MUSA Compute Capability 3.1計(jì)算架構(gòu)的全功能GPU上,無縫運(yùn)行新版本的PyTorch,享受更高效的AI計(jì)算體驗(yàn)。

Torch-MUSA已完全開源,開發(fā)者可通過訪問GitHub獲取源代碼。摩爾線程鼓勵(lì)開發(fā)者積極參與該項(xiàng)目的開發(fā)與改進(jìn),通過提交問題報(bào)告(issue)或代碼修改申請(pull request)等方式,共同推動(dòng)Torch-MUSA以及MUSA軟件生態(tài)的持續(xù)進(jìn)步與創(chuàng)新。

Torch-MUSA開源地址:

https://github.com/MooreThreads/torch_musa

功能特性:

在Torch-MUSA中,用戶只需指定torch.device("musa"),即可輕松將現(xiàn)有的PyTorch模型遷移到MUSA架構(gòu)的GPU上運(yùn)行,無需大幅修改代碼。Torch-MUSA完全兼容PyTorch的自動(dòng)微分和動(dòng)態(tài)圖機(jī)制,支持多種常用的神經(jīng)網(wǎng)絡(luò)模塊及優(yōu)化算法,并加速了關(guān)鍵深度學(xué)習(xí)算子的計(jì)算。此外,Torch-MUSA還支持多種PyTorch特性,包括DDP、JIT、FSDP、Profiler、Extension等。

版本迭代:

MUSA Graph技術(shù)將多個(gè)MUSA內(nèi)核整合到一個(gè)圖中,通過單次CPU調(diào)度大幅減少啟動(dòng)開銷,提升計(jì)算效率,同時(shí)與CUDA Graph接口高效兼容。

v1.1.0:初次發(fā)布,支持PyTorch 2.0,提供基礎(chǔ)張量操作和常見神經(jīng)網(wǎng)絡(luò)層的MUSA加速。

v1.2.0:進(jìn)一步擴(kuò)展算子支持,支持了完整功能的Profiler、MUSA Extension,并增加了Torch-MUSA專有特性如compare_tool、musa_converter,幫助用戶更快的定位模型精度問題。

v1.3.0:支持PyTorch 2.2.0,性能進(jìn)一步提升,支持FSDP,支持更復(fù)雜的模型和更大規(guī)模的數(shù)據(jù)處理。

v2.0.0:在MUSA Compute Capability 3.1計(jì)算架構(gòu)上,原生支持FP8數(shù)據(jù)類型,支持PyTorch 2.5.0,新增MUSA虛擬內(nèi)存管理技術(shù)優(yōu)化大模型訓(xùn)練內(nèi)存效率,通過集成Triton-MUSA后端顯著提升torch.compile編譯效率,支持MUSA Graph技術(shù)。

未來計(jì)劃:

Torch-MUSA將繼續(xù)跟進(jìn)PyTorch的版本更新,計(jì)劃支持更高版本的PyTorch。摩爾線程期待與廣大開發(fā)者和研究人員共同完善Torch-MUSA的功能,持續(xù)優(yōu)化性能,為基于MUSA架構(gòu)的國產(chǎn)全功能GPU構(gòu)建更強(qiáng)大的深度學(xué)習(xí)生態(tài)。

關(guān)于摩爾線程

摩爾線程成立于2020年10月,以全功能GPU為核心,致力于向全球提供加速計(jì)算的基礎(chǔ)設(shè)施和一站式解決方案,為各行各業(yè)的數(shù)智化轉(zhuǎn)型提供強(qiáng)大的AI計(jì)算支持。

我們的目標(biāo)是成為具備國際競爭力的GPU領(lǐng)軍企業(yè),為融合人工智能和數(shù)字孿生的數(shù)智世界打造先進(jìn)的加速計(jì)算平臺(tái)。我們的愿景是為美好世界加速。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • pytorch
    +關(guān)注

    關(guān)注

    2

    文章

    809

    瀏覽量

    13970
  • 摩爾線程
    +關(guān)注

    關(guān)注

    2

    文章

    235

    瀏覽量

    5376

原文標(biāo)題:支持原生FP8和PyTorch 2.5.0,摩爾線程發(fā)布Torch-MUSA v2.0.0

文章出處:【微信號:moorethreads,微信公眾號:摩爾線程】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    摩爾線程Linux驅(qū)動(dòng)v3.0.0發(fā)布

    近日,摩爾線程正式推出Linux驅(qū)動(dòng)程序v3.0.0,全面支持圖形顯卡MTT S80和高性能專業(yè)顯卡MTT X300。作為v2.7.0RC4
    的頭像 發(fā)表于 05-08 11:38 ?496次閱讀
    <b class='flag-5'>摩爾</b><b class='flag-5'>線程</b>Linux驅(qū)動(dòng)<b class='flag-5'>v</b>3.0.0<b class='flag-5'>發(fā)布</b>

    摩爾線程GPU率先支持Qwen3全系列模型

    近日,阿里云正式發(fā)布Qwen3系列的8款開源混合推理模型。摩爾線程團(tuán)隊(duì)在模型發(fā)布當(dāng)天,率先完成了Qwen3全系列模型在全功能GPU上的高效
    的頭像 發(fā)表于 05-07 15:24 ?486次閱讀

    摩爾線程GPU成功適配Deepseek-V3-0324大模型

    近日,DeepSeek正式發(fā)布了其大語言模型的全新小版本迭代——DeepSeek-V3-0324,這一版本在推理能力、代碼生成、中文寫作以及搜索能力等多個(gè)維度實(shí)現(xiàn)了顯著提升。憑借其先進(jìn)
    的頭像 發(fā)表于 03-31 11:34 ?614次閱讀
    <b class='flag-5'>摩爾</b><b class='flag-5'>線程</b>GPU成功適配Deepseek-<b class='flag-5'>V</b>3-0324大模型

    摩爾線程GPU原生FP8計(jì)算助力AI訓(xùn)練

    并行訓(xùn)練和推理,顯著提升了訓(xùn)練效率與穩(wěn)定性。摩爾線程是國內(nèi)率先原生支持FP8計(jì)算精度的國產(chǎn)GPU企業(yè),此次開源不僅為AI訓(xùn)練和推理提供了全新
    的頭像 發(fā)表于 03-17 17:05 ?623次閱讀
    <b class='flag-5'>摩爾</b><b class='flag-5'>線程</b>GPU<b class='flag-5'>原生</b><b class='flag-5'>FP8</b>計(jì)算助力AI訓(xùn)練

    摩爾線程全面支持DeepSeek開源周成果

    DeepSeek開源周正式收官,作為國內(nèi)率先原生支持FP8計(jì)算精度的國產(chǎn)GPU企業(yè),摩爾線程迅速響應(yīng),并在短時(shí)間內(nèi),成功實(shí)現(xiàn)對DeepSee
    的頭像 發(fā)表于 03-04 10:06 ?518次閱讀

    摩爾線程完成DeepSeek開源庫FlashMLA和DeepGEMM適配

    自DeepSeek啟動(dòng)“開源周”以來,已陸續(xù)開源三個(gè)代碼庫。摩爾線程基于全新MUSA Compute Capability 3.1計(jì)算架構(gòu),可提供原生
    的頭像 發(fā)表于 02-27 14:40 ?570次閱讀

    摩爾線程圖形顯卡MTT S80實(shí)現(xiàn)DeepSeek模型部署

    摩爾線程“全功能”圖形顯卡MTT S80,不僅游戲渲染性能強(qiáng)大,能玩《黑神話:悟空》,現(xiàn)在還能本地部署DeepSeek R1蒸餾模型。搭配最新發(fā)布MUSA SDK RC3.1.1
    的頭像 發(fā)表于 02-21 15:46 ?2261次閱讀
    <b class='flag-5'>摩爾</b><b class='flag-5'>線程</b>圖形顯卡MTT S80實(shí)現(xiàn)DeepSeek模型部署

    摩爾線程發(fā)布圖形顯卡驅(qū)動(dòng)v290.100

    2月20日,摩爾線程發(fā)布版本號為v290.100的圖形顯卡驅(qū)動(dòng)程序。此次更新針對多款熱門游戲進(jìn)行了深度優(yōu)化,旨在為玩家?guī)砀鲿?、更穩(wěn)定的游
    的頭像 發(fā)表于 02-20 18:16 ?693次閱讀

    DLPNIRSCANEVM如何獲得軟件NIRscan V2.0.0的源代碼?

    如何獲得軟件NIRscan V2.0.0的源代碼?
    發(fā)表于 02-19 06:10

    FP8在大模型訓(xùn)練中的應(yīng)用

    越來越多的技術(shù)團(tuán)隊(duì)開始使用 FP8 進(jìn)行大模型訓(xùn)練,這主要因?yàn)?FP8 有很多技術(shù)優(yōu)勢。比如在新一代的 GPU 上,FP8 相對于 BF16 對矩陣乘算子這樣的計(jì)算密集型算子,NVIDIA
    的頭像 發(fā)表于 01-23 09:39 ?1189次閱讀
    <b class='flag-5'>FP8</b>在大模型訓(xùn)練中的應(yīng)用

    如何使用FP8新技術(shù)加速大模型訓(xùn)練

    /fp8_primer.html#Introduction-to-FP8 其中,使用 FP8 進(jìn)行大模型訓(xùn)練具有以下優(yōu)勢: 新一代 GPU 如?NVIDIA Ada Lovelace、Hopper?架構(gòu)配備了最新一代的 Tensor Core,可以
    的頭像 發(fā)表于 12-09 11:30 ?1082次閱讀

    PyTorch 2.5.1: Bugs修復(fù)版發(fā)布

    ? 一,前言 在深度學(xué)習(xí)框架的不斷迭代中,PyTorch 社區(qū)始終致力于提供更穩(wěn)定、更高效的工具。最近,PyTorch 2.5.1 版本正式發(fā)布,這個(gè)
    的頭像 發(fā)表于 12-03 16:11 ?1624次閱讀
    <b class='flag-5'>PyTorch</b> 2.5.1: Bugs修復(fù)版<b class='flag-5'>發(fā)布</b>

    摩爾線程發(fā)布v280.90圖形顯卡驅(qū)動(dòng)程序

    日前,摩爾線程發(fā)布版本號為v280.90的圖形顯卡驅(qū)動(dòng)程序。全新升級的驅(qū)動(dòng)程序,可以在Windows 10和Windows 11操作系統(tǒng)環(huán)境
    的頭像 發(fā)表于 11-26 16:21 ?866次閱讀

    FP8數(shù)據(jù)格式在大型模型訓(xùn)練中的應(yīng)用

    本文主要介紹了 FP8 數(shù)據(jù)格式在大型模型訓(xùn)練中的應(yīng)用、挑戰(zhàn)及最佳實(shí)踐,展示了 FP8 在提升訓(xùn)練速度和效率方面的潛力和實(shí)際效果。
    的頭像 發(fā)表于 11-19 14:54 ?1691次閱讀
    <b class='flag-5'>FP8</b>數(shù)據(jù)格式在大型模型訓(xùn)練中的應(yīng)用

    FP8模型訓(xùn)練中Debug優(yōu)化思路

    目前,市場上許多公司都積極開展基于 FP8 的大模型訓(xùn)練,以提高計(jì)算效率和性能。在此,我們整理并總結(jié)了客戶及 NVIDIA 技術(shù)團(tuán)隊(duì)在 FP8 模型訓(xùn)練過程中的 debug 思路和方法,供大家參考。
    的頭像 發(fā)表于 09-06 14:36 ?936次閱讀
    <b class='flag-5'>FP8</b>模型訓(xùn)練中Debug優(yōu)化思路