一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

大模型時代的深度學(xué)習(xí)框架

jf_23871869 ? 來源:劉力 ? 作者:劉力 ? 2025-04-25 11:43 ? 次閱讀

作者:算力魔方創(chuàng)始人/英特爾創(chuàng)新大使劉力

CNN時代AI模型的參數(shù)規(guī)模都在百萬級別,僅需在單張消費類顯卡上即可完成訓(xùn)練。例如,以業(yè)界知名的CNN模型:ResNet50為例,模型參數(shù)量是約為 25.63M,在ImageNet1K數(shù)據(jù)集上,使用單張消費類顯卡RTX-4090只需大約35~40個小時,即可完成ResNet50模型的預(yù)訓(xùn)練。在大模型時代,由于大模型參數(shù)規(guī)模龐大,無法跟CNN時代的小模型一樣在單張顯卡上完成訓(xùn)練,需要構(gòu)建多張AI加速卡的集群才能完成AI大模型的預(yù)訓(xùn)練。例如:DeepSeek-V3在其技術(shù)報告中介紹,DeepSeek-V3的模型參數(shù)量為671B,需要278萬8千個H800 GPU小時才能完成預(yù)訓(xùn)練,換句話說,在有1萬張H800的GPU集群上,需要訓(xùn)練278.8個小時。

wKgZPGgJvI6AK6v3AAR6CZcI17A083.png

包含1萬張H800的AI數(shù)據(jù)中心包括:帶H800的服務(wù)器節(jié)點、網(wǎng)絡(luò)、存儲、電源、散熱等,一般來說,總建設(shè)預(yù)算在15億美金左右。以從AWS上租用1萬張H800為例,每小時的租金大約為12.3萬美金/小時。以訓(xùn)練DeepSeek-V3為例,

訓(xùn)練效率每提升1%,相當(dāng)于節(jié)約278.8*1%*12.3=34.3萬美金,

即240萬人民幣的租金。所以,在大模型時代,如何充分利用分布式的GPU集群算力,是深度學(xué)習(xí)框架首先需要考慮的點。

要充分利用分布式的GPU集群算力,就需要充分使用復(fù)雜的并行策略,

包括數(shù)據(jù)并行、張量并行、參數(shù)分片并行、流水線并行、序列并行、專家并行等;并且還要提升GPU與GPU,服務(wù)器節(jié)點與服務(wù)器節(jié)點間的通訊效率;除此之外,還要考慮AI數(shù)據(jù)中心不同算力芯片的適配;前沿模型快速發(fā)展時,對新型模型的支持等等...若要求AI模型科學(xué)家既要

熟知模型結(jié)構(gòu),還要深入了解芯片特點、硬件架構(gòu)、并行策略、調(diào)度邏輯等等

,這會使得大模型的開發(fā)和性能優(yōu)化的

技術(shù)門檻變得非常高

,大大制約了大模型的開發(fā)和訓(xùn)練效率。針對上述需求和痛點,

飛槳新一代框架3.0

應(yīng)運而生,該版本提供了豐富的深度學(xué)習(xí)相關(guān)的各種開發(fā)接口

表示層:專注于計算圖的表達(dá)與轉(zhuǎn)換,通過高可擴展中間表示PIR,實現(xiàn)動轉(zhuǎn)靜、自動微分、自動并行、算子組合以及計算圖優(yōu)化等核心功能;

調(diào)度層:負(fù)責(zé)對代碼或計算圖進(jìn)行智能編排與高效調(diào)度,支持動態(tài)圖和靜態(tài)圖兩種不同的執(zhí)行模式;

算子層:神經(jīng)網(wǎng)絡(luò)編譯器CINN和算子庫PHI共同構(gòu)成,涵蓋了張量定義、算子定義、算子自動融合和算子內(nèi)核實現(xiàn)等關(guān)鍵功能;

適配層:則用于實現(xiàn)與底層芯片適配,包括設(shè)備管理、算子適配、通信適配以及編譯接入等功能。

wKgZO2gJvJWAa-4eAAumNKFn45A615.png

飛槳框架3.0憑借強大的功能和優(yōu)化的設(shè)計,

幫助算法工程師和科研人員以更低的成本進(jìn)行算法創(chuàng)新,

并實現(xiàn)產(chǎn)業(yè)應(yīng)用。以百度文心大模型為例,飛槳框架3.0在訓(xùn)練、推理等方面為文心大模型提供端到端優(yōu)化,訓(xùn)練方面重點提升訓(xùn)練吞吐、訓(xùn)練有效率和收斂效率,集群訓(xùn)練有效率超過98%;推理部署方面通過注意力機制量化推理、通用投機解碼等技術(shù)提升推理吞吐和效率;全面支持文心4.5、文心X1等大模型的技術(shù)創(chuàng)新和產(chǎn)業(yè)應(yīng)用。

飛槳框架3.0 Github倉:https://github.com/PaddlePaddle/Paddle。

如果你有更好的文章,歡迎投稿!

稿件接收郵箱:nami.liu@pasuntech.com

更多精彩內(nèi)容請關(guān)注“算力魔方?”!

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5547

    瀏覽量

    122306
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    2941

    瀏覽量

    3683
  • DeepSeek
    +關(guān)注

    關(guān)注

    1

    文章

    755

    瀏覽量

    1050
收藏 人收藏

    評論

    相關(guān)推薦

    百度飛槳框架3.0正式版發(fā)布

    模型訓(xùn)練成本高?推理效率低?硬件適配難? 4月1日,百度發(fā)布 飛槳框架3.0正式版 !五大特性專為大模型設(shè)計。 作為大模型時代的Infra
    的頭像 發(fā)表于 04-02 19:03 ?475次閱讀
    百度飛槳<b class='flag-5'>框架</b>3.0正式版發(fā)布

    在OpenVINO?工具套件的深度學(xué)習(xí)工作臺中無法導(dǎo)出INT8模型怎么解決?

    無法在 OpenVINO? 工具套件的深度學(xué)習(xí) (DL) 工作臺中導(dǎo)出 INT8 模型
    發(fā)表于 03-06 07:54

    深度學(xué)習(xí)模型的魯棒性優(yōu)化

    深度學(xué)習(xí)模型的魯棒性優(yōu)化是一個復(fù)雜但至關(guān)重要的任務(wù),它涉及多個方面的技術(shù)和策略。以下是一些關(guān)鍵的優(yōu)化方法: 一、數(shù)據(jù)預(yù)處理與增強 數(shù)據(jù)清洗 :去除數(shù)據(jù)中的噪聲和異常值,這是提高模型魯棒
    的頭像 發(fā)表于 11-11 10:25 ?725次閱讀

    GPU深度學(xué)習(xí)應(yīng)用案例

    GPU在深度學(xué)習(xí)中的應(yīng)用廣泛且重要,以下是一些GPU深度學(xué)習(xí)應(yīng)用案例: 一、圖像識別 圖像識別是深度學(xué)習(xí)
    的頭像 發(fā)表于 10-27 11:13 ?903次閱讀

    FPGA加速深度學(xué)習(xí)模型的案例

    FPGA(現(xiàn)場可編程門陣列)加速深度學(xué)習(xí)模型是當(dāng)前硬件加速領(lǐng)域的一個熱門研究方向。以下是一些FPGA加速深度學(xué)習(xí)
    的頭像 發(fā)表于 10-25 09:22 ?907次閱讀

    AI大模型深度學(xué)習(xí)的關(guān)系

    AI大模型深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進(jìn),相輔相成。以下是對兩者關(guān)系的介紹: 一、深度學(xué)習(xí)是AI大
    的頭像 發(fā)表于 10-23 15:25 ?2436次閱讀

    【「大模型時代的基礎(chǔ)架構(gòu)」閱讀體驗】+ 第一、二章學(xué)習(xí)感受

    今天閱讀了《大模型時代的基礎(chǔ)架構(gòu)》前兩章,還是比較輕松舒適的;再就是本書知識和我的工作領(lǐng)域沒有任何關(guān)聯(lián),一切都是新鮮的,似乎每讀一頁都會有所收獲,這種快樂的學(xué)習(xí)過程感覺也挺不錯的。 第一章開始介紹了
    發(fā)表于 10-10 10:36

    NVIDIA推出全新深度學(xué)習(xí)框架fVDB

    在 SIGGRAPH 上推出的全新深度學(xué)習(xí)框架可用于打造自動駕駛汽車、氣候科學(xué)和智慧城市的 AI 就緒型虛擬表示。
    的頭像 發(fā)表于 08-01 14:31 ?907次閱讀

    深度學(xué)習(xí)模型有哪些應(yīng)用場景

    深度學(xué)習(xí)模型作為人工智能領(lǐng)域的重要分支,已經(jīng)在多個應(yīng)用場景中展現(xiàn)出其巨大的潛力和價值。這些應(yīng)用不僅改變了我們的日常生活,還推動了科技進(jìn)步和產(chǎn)業(yè)升級。以下將詳細(xì)探討深度
    的頭像 發(fā)表于 07-16 18:25 ?3330次閱讀

    ai大模型和ai框架的關(guān)系是什么

    AI大模型和AI框架是人工智能領(lǐng)域中兩個重要的概念,它們之間的關(guān)系密切且復(fù)雜。 AI大模型的定義和特點 AI大模型是指具有大量參數(shù)的深度
    的頭像 發(fā)表于 07-16 10:07 ?6.7w次閱讀

    深度學(xué)習(xí)模型量化方法

    深度學(xué)習(xí)模型量化是一種重要的模型輕量化技術(shù),旨在通過減少網(wǎng)絡(luò)參數(shù)的比特寬度來減小模型大小和加速推理過程,同時盡量保持
    的頭像 發(fā)表于 07-15 11:01 ?863次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>模型</b>量化方法

    深度學(xué)習(xí)中的模型權(quán)重

    深度學(xué)習(xí)這一充滿無限可能性的領(lǐng)域中,模型權(quán)重(Weights)作為其核心組成部分,扮演著至關(guān)重要的角色。它們不僅是模型學(xué)習(xí)的基石,更是
    的頭像 發(fā)表于 07-04 11:49 ?3467次閱讀

    TensorFlow與PyTorch深度學(xué)習(xí)框架的比較與選擇

    深度學(xué)習(xí)作為人工智能領(lǐng)域的一個重要分支,在過去十年中取得了顯著的進(jìn)展。在構(gòu)建和訓(xùn)練深度學(xué)習(xí)模型的過程中,
    的頭像 發(fā)表于 07-02 14:04 ?1395次閱讀

    深度學(xué)習(xí)模型訓(xùn)練過程詳解

    深度學(xué)習(xí)模型訓(xùn)練是一個復(fù)雜且關(guān)鍵的過程,它涉及大量的數(shù)據(jù)、計算資源和精心設(shè)計的算法。訓(xùn)練一個深度學(xué)習(xí)模型
    的頭像 發(fā)表于 07-01 16:13 ?2152次閱讀

    深度學(xué)習(xí)模型優(yōu)化與調(diào)試方法

    深度學(xué)習(xí)模型在訓(xùn)練過程中,往往會遇到各種問題和挑戰(zhàn),如過擬合、欠擬合、梯度消失或爆炸等。因此,對深度學(xué)習(xí)
    的頭像 發(fā)表于 07-01 11:41 ?1396次閱讀