一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何借助大語言模型打造人工智能生態(tài)系統(tǒng)

安晟培半導體 ? 來源:安晟培半導體 ? 2025-04-27 09:19 ? 次閱讀

大語言模型(LLMs)正以革命性的姿態(tài)重塑我們與科技的互動模式。然而,由于其龐大的規(guī)模,它們往往屬于資源密集型范疇,不僅大幅推高了成本,還造成了能源消耗的激增。本文深入剖析了大語言模型的規(guī)模大小、硬件需求以及所涉及的財務(wù)影響這三者之間的內(nèi)在聯(lián)系。我們將深入探究現(xiàn)實中大語言模型的發(fā)展趨勢,并共同探討如何借助規(guī)模更小、效能更高的模型,打造一個更具可持續(xù)性的人工智能生態(tài)系統(tǒng)。

理解模型規(guī)模:參數(shù)與性能

不妨將大語言模型視作一個大腦,其中有著數(shù)十億個名為“參數(shù)”的“細胞”。其“細胞”數(shù)量越多,它便越智能,功能也越發(fā)強大。從傳統(tǒng)意義上來說,規(guī)模更大的模型往往具備更卓越的理解能力,所儲備的知識也更為豐富——這就好比一個大腦,同時擁有了更高的智商和更強大的記憶力。本質(zhì)上,一個大型的大語言模型就如同一位學識深厚、見解獨到的專家。然而,獲取這種專業(yè)能力是需要付出代價的。這些規(guī)模更大的模型需要更為強勁的計算機來驅(qū)動,能耗也會大幅增加,不僅使成本顯著上升,對環(huán)境產(chǎn)生的影響也不容小覷*。

為了能更好地對語言模型進行分類,按照模型規(guī)模大小來劃分會很有幫助。這張圖表展示了不同類別的模型,以及與之對應(yīng)的參數(shù)數(shù)量和示例:

7ddf1f46-20a8-11f0-9310-92fbcf53809c.png

基于公開可用信息(在可獲取的情況下)和行業(yè)對閉源模型的估計。

大語言模型:性能更優(yōu),體積更小

我們不妨以 Llama 模型為例。這些模型的迅猛發(fā)展,凸顯出人工智能領(lǐng)域的一個關(guān)鍵趨勢:對效率與性能的高度重視。

2023年8月,Llama 2 700億參數(shù)(70B)版本一經(jīng)推出,便被視作頂級基礎(chǔ)模型。然而,其龐大的規(guī)模對硬件要求極高,只有像 NVIDIA H100 這樣強勁的加速器才能支撐其運行。短短不到九個月后,Meta 公司推出了 Llama 3 80億參數(shù)(8B)版本,模型規(guī)模銳減近九倍。這一優(yōu)化使得該模型不僅能夠在更為小巧的人工智能加速器上運行,甚至在經(jīng)過優(yōu)化的 CPU 上也能順暢運作,硬件成本與功耗均大幅降低。尤為值得一提的是,在準確性基準測試中,Llama 3 80億參數(shù)版本的表現(xiàn)超越了參數(shù)更多、體積更大的前代模型。

7defa23a-20a8-11f0-9310-92fbcf53809c.png

*信息來源及測試方法:出自 “指令微調(diào)模型” 部分:

這一趨勢在2024年9月 Llama 3.2發(fā)布時得以延續(xù),該版本推出了適用于多種應(yīng)用場景的10億參數(shù)(1B)和30億參數(shù)(3B)變體。就連像 Llama 3.2 4050億參數(shù)(405B)這樣的大型三類模型也在縮小規(guī)模。2024年12月,Llama 3.3 700億參數(shù)(70B)版本問世,在 MMLU 聊天測評中取得了86.0的分數(shù)*,幾乎與參數(shù)規(guī)模大得多的前代模型 Llama 3.2 4050億參數(shù)(405B)所獲得的88.6分相當。

這表明,如今較小規(guī)模類別的模型在使用更少計算資源的情況下,其性能(準確性)已能與上一代較大規(guī)模類別的模型相媲美。這種向更小、更高效模型的轉(zhuǎn)變正在推動人工智能的普及,有助于讓更多人能夠使用人工智能,同時也使其更具可持續(xù)性*。更妙的是,這種朝著小型語言模型發(fā)展的趨勢在未來很可能會持續(xù)下去,因此可以預(yù)期,未來發(fā)布的新模型其規(guī)??赡軙犬斍耙淮哪P托『芏啾?。

模型愈發(fā)貼合特定應(yīng)用場景

我們正見證著一種日益增長的趨勢,即通過一種名為知識蒸餾的過程來創(chuàng)建專門的人工智能模型。這種技術(shù)本質(zhì)上是從大語言模型中“去除冗余”,剔除不必要的信息,并常常針對特定任務(wù)對其進行優(yōu)化。

可以這樣理解:一家大型銷售機構(gòu)想要分析其內(nèi)部數(shù)據(jù),它并不需要一個能夠?qū)懺娀蛟O(shè)計建筑的人工智能模型。同樣,一個需要編碼幫助的工程部門也不需要一個擁有豐富鳥類遷徙知識的模型。

通過知識蒸餾,我們能夠創(chuàng)建出在指定領(lǐng)域表現(xiàn)卓越的高度專業(yè)化模型。這些模型更加精簡、運行速度更快且效率更高,因為它們沒有被無關(guān)信息所累。

這種朝著特定領(lǐng)域模型發(fā)展的趨勢帶來了諸多好處:

? 提高準確性:通過專注于特定領(lǐng)域,這些模型在其專業(yè)領(lǐng)域內(nèi)能夠?qū)崿F(xiàn)更高的準確性和更好的性能表現(xiàn)。

? 降低資源消耗:規(guī)模更小、更具針對性的模型通常所需的計算能力和內(nèi)存更少,這有助于使其更具成本效益且更加節(jié)能。

? 增強可部署性:特定領(lǐng)域的模型可以輕松部署在更廣泛的硬件上,包括直接在經(jīng)過人工智能優(yōu)化的 CPU 上進行推理。

隨著人工智能的不斷發(fā)展,我們可以預(yù)期,這些專門的模型將大量涌現(xiàn),在從客戶服務(wù)、醫(yī)學診斷到金融分析、科學研究等各個特定領(lǐng)域中表現(xiàn)出色。我們期待看到在全球范圍內(nèi)的各個行業(yè)和應(yīng)用中,新的潛力被不斷挖掘出來。

你的人工智能運行速度是不是太快了?

人們往往很容易想要把重點放在最大化人工智能推理速度上(就好比吹噓一輛跑車的最高時速那樣),但一種更為實際的做法是考慮用戶的實際需求。

就像用一輛跑車來滿足日常通勤需求有點大材小用一樣,以閃電般的速度生成文本對于人機交互來說可能也沒有必要。有資料顯示,普通人每分鐘能閱讀200到300個英文單詞。人工智能模型很容易就能超過這個速度,但根據(jù)與人工智能平臺聯(lián)盟*的合作經(jīng)驗,每分鐘輸出大約450個單詞(每秒10個詞元,按每個英文單詞約1.3個詞元來算*)的速度通常就足夠了。

一味地追求絕對速度可能會導致不必要的成本增加和流程復雜化。一種更為平衡的方法是注重在不過度消耗資源的前提下,為用戶提供最佳的使用體驗。

云原生處理器:用于推理的靈活解決方案

AmpereOne 云原生處理器,相較于 GPU 具有一項關(guān)鍵優(yōu)勢:靈活性。它們能夠?qū)τ嬎愫诵倪M行分配,從而允許多個人工智能推理會話同時運行。雖然 GPU 通常一次只能處理單個

會話(不過也有一些例外情況,比如 NVIDIA H100 具備有限的多實例 GPU(MIG)功能),但一個擁有192個核心的 CPU 可以進行分區(qū),以處理大量較小的任務(wù),其中包括通用型工作負載。

這使得 CPU 在運行規(guī)模較小的0類或1類人工智能模型時效率極高。盡管 GPU 憑借其強大的原始計算能力,在處理規(guī)模較大的2類或3類模型時仍然表現(xiàn)出色,但對于許多常見的人工智能應(yīng)用而言,CPU 提供了一種具有成本效益且可擴展的解決方案。

從本質(zhì)上講,這關(guān)乎為任務(wù)選擇合適的工具。對于大型、復雜的模型而言,人工智能硬件加速器無疑是最佳選擇。但對于數(shù)量較多的小型任務(wù),經(jīng)過人工智能優(yōu)化的云原生處理器所具備的靈活性和高效性則展現(xiàn)出了顯著的優(yōu)勢。

通過合理規(guī)劃計算規(guī)模,實現(xiàn)每個機架的大語言模型效率最大化

為了讓每個人都能更輕松地使用人工智能推理,我們需要降低其成本。這意味著要選擇規(guī)模較小的人工智能模型,并讓它們在高效的硬件上運行,從而最大限度地增加我們能夠同時執(zhí)行的人工智能任務(wù)數(shù)量。

大多數(shù)數(shù)據(jù)中心運營商每個機架的電力預(yù)算限制在10千瓦到20千瓦之間*。通過優(yōu)化模型規(guī)模和硬件選擇,我們可以提高每個機架上人工智能推理的密度,使這項技術(shù)更具成本效益,也更能廣泛普及。

我們以一個功率為12.5千瓦、42U規(guī)格的機架為例來進行說明。以下是根據(jù)模型規(guī)模和硬件配置,在保持每秒至少10個詞元(TPS)的情況下,能夠運行的人工智能推理會話數(shù)量:

7dfbf40e-20a8-11f0-9310-92fbcf53809c.png

敲黑板劃重點:較小規(guī)模的人工智能模型(0類或1類)能夠在一個機架中大幅增加可同時運行的人工智能任務(wù)數(shù)量,并且還能始終保持令人滿意的用戶體驗。以下是這一情況得以實現(xiàn)的原因:

? 能源效率:AmpereOne 能源利用效率高,能夠在普通機架中實現(xiàn)可運行服務(wù)器數(shù)量的最大化。

? 分區(qū)能力:擁有192個計算核心的 AmpereOne 允許每個機架創(chuàng)建多個并發(fā)的推理會話。

? Ampere 人工智能優(yōu)化器:Ampere 的人工智能優(yōu)化器(AIO)庫有助于提升諸如Llama 3等大語言模型的性能。

構(gòu)建更具可持續(xù)性的人工智能計算體系通過針對特定的應(yīng)用場景和行業(yè)對人工智能模型進行優(yōu)化,我們能夠顯著減小模型的規(guī)模和復雜程度。這種有的放矢的方法有助于創(chuàng)建出規(guī)模更小、效率更高的模型,這些模型所需的計算能力較低,并且可以在成本更低、更易于獲取的云原生硬件上運行。這不僅使個人和小型組織更容易接觸和使用人工智能,還能通過降低能源消耗來促進可持續(xù)發(fā)展。

這賦予了個人、研究人員以及各種規(guī)模的企業(yè)利用人工智能潛力的能力,從而在各個領(lǐng)域推動創(chuàng)新并帶來社會效益。若想深入了解 Ampere 在人工智能推理領(lǐng)域的創(chuàng)新成果,可訪問 Ampere 人工智能主頁。

關(guān)于 Ampere Computing

Ampere Computing 是一家現(xiàn)代化半導體企業(yè),致力于塑造云計算的未來,并推出了世界上首款云原生處理器。為可持續(xù)云而生,Ampere 云原生處理器兼具最高性能和最佳每瓦性能,助力加速多種云計算應(yīng)用的交付,為云提供行業(yè)領(lǐng)先的性能、能效和可擴展性。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 處理器
    +關(guān)注

    關(guān)注

    68

    文章

    19740

    瀏覽量

    232864
  • cpu
    cpu
    +關(guān)注

    關(guān)注

    68

    文章

    11011

    瀏覽量

    215177
  • 人工智能
    +關(guān)注

    關(guān)注

    1804

    文章

    48449

    瀏覽量

    244950
  • 語言模型
    +關(guān)注

    關(guān)注

    0

    文章

    557

    瀏覽量

    10596
  • Ampere
    +關(guān)注

    關(guān)注

    1

    文章

    80

    瀏覽量

    4638

原文標題:大語言模型(LLMs):并非越大越好

文章出處:【微信號:AmpereComputing,微信公眾號:安晟培半導體】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    體驗碎片化及安徽信任度將影響大時代人工智能設(shè)備的可靠發(fā)展

    智能設(shè)備生態(tài)系統(tǒng)正在影響和改動消費者的日子與運用習氣,這些生態(tài)系統(tǒng)不只提供當下消費者所需,還會開掘及影響其潛在需求——小米、聯(lián)想,阿里巴巴和京東等巨子正在通過打造
    發(fā)表于 08-15 11:16

    工廠生產(chǎn)系統(tǒng)能效的生態(tài)系統(tǒng)優(yōu)化設(shè)計

    優(yōu)化工廠生產(chǎn)系統(tǒng)能效的生態(tài)系統(tǒng)
    發(fā)表于 07-12 08:44

    everspin生態(tài)系統(tǒng)和制造工藝創(chuàng)新解析

    everspin生態(tài)系統(tǒng)和制造工藝創(chuàng)新
    發(fā)表于 01-01 07:55

    STM32單片機基礎(chǔ)01——初識 STM32Cube 生態(tài)系統(tǒng) 精選資料分享

    本篇文章主要介紹STM32Cube生態(tài)系統(tǒng)。STM32Cube EcosystemSTM32Cube是ST公司開發(fā)的一套生態(tài)系統(tǒng),致力于使STM32的開發(fā)變的更簡單,并且100%開源免費。在開始介紹
    發(fā)表于 08-03 07:15

    Microchip FPGA 和基于 SoC 的 RISC-V 生態(tài)系統(tǒng)簡介

    的處理速度和更低的延遲,同時降低功耗。圍繞 RISC-V 的支持框架也在不斷發(fā)展,Microchip Technology正在構(gòu)建一個生態(tài)系統(tǒng)來支持其 RISC-V 軟計算機處理單元 (CPU
    發(fā)表于 09-07 17:59

    什么是STM32Cube生態(tài)系統(tǒng)?

    什么是STM32Cube生態(tài)系統(tǒng)?
    發(fā)表于 09-29 06:12

    嵌入式人工智能簡介

    的,中文名為開放智能機器(上海)有限公司。2016年12月1日,由ARM生態(tài)系統(tǒng)加速器安創(chuàng)空間聯(lián)合全志科技、地平線機器人發(fā)起的開放人工智能...
    發(fā)表于 10-28 09:44

    IT的生態(tài)系統(tǒng)概述

    一、IT的生態(tài)系統(tǒng)概述1.1 計算機CPU四大體系結(jié)構(gòu)1、以PC機為代表的X86結(jié)構(gòu)2、以嵌入式計算機為代表的ARM結(jié)構(gòu)3、以國產(chǎn)龍芯為代表的MIPS結(jié)構(gòu)4、以IBM巨型機為代表的POWPC結(jié)構(gòu)
    發(fā)表于 12-22 06:47

    GaN功率半導體與高頻生態(tài)系統(tǒng)

    GaN功率半導體與高頻生態(tài)系統(tǒng)(氮化鎵)
    發(fā)表于 06-25 09:38

    BAT搶占智能家庭市場入口,打造自家生態(tài)系統(tǒng)

    人工智能技術(shù)推波助瀾下,語音助理成為智能家庭新焦點,國內(nèi)互聯(lián)網(wǎng)業(yè)者百度、阿里巴巴與騰訊(BAT)順勢透過智能音響搶占智能家庭市場入口,憑借在網(wǎng)絡(luò)產(chǎn)業(yè)累績的大數(shù)據(jù)資源,建立語音開放平臺
    的頭像 發(fā)表于 09-07 16:29 ?3772次閱讀

    如何使用人工智能進行智能家居生態(tài)系統(tǒng)設(shè)計的研究分析

    人工智能是當前計算機研究的熱點,被譽為二十世紀的重大科學技術(shù)成就之一。本文展示的人工智能家居生態(tài)系統(tǒng)是采用單片機控制語音模塊、雨淋模塊、步進電機模塊、壓力傳感器模塊、時鐘模塊、紅外對射模塊以及
    發(fā)表于 12-20 10:37 ?5次下載
    如何使用<b class='flag-5'>人工智能</b>進行<b class='flag-5'>智能</b>家居<b class='flag-5'>生態(tài)系統(tǒng)</b>設(shè)計的研究分析

    人工智能生態(tài)系統(tǒng)中發(fā)生了什么?

    人工智能生態(tài)系統(tǒng)正在蓬勃發(fā)展,從大學到企業(yè),再到世界各地的政府大廳。
    的頭像 發(fā)表于 08-14 16:38 ?3697次閱讀

    造人工智能模型產(chǎn)業(yè)生態(tài)

     打造良好的人工智能大規(guī)模模型產(chǎn)業(yè)生態(tài),需要著力解決目前中國人工智能大規(guī)模模型發(fā)展面臨的尖端計算
    的頭像 發(fā)表于 06-14 09:19 ?846次閱讀

    美軍人工智能生態(tài)系統(tǒng)變化綜述

    2022財年國防授權(quán)法案在“國家安全委員會關(guān)于人工智能的建議(第52章)”中,設(shè)立了一些和數(shù)字生態(tài)系統(tǒng)相關(guān)的新節(jié):國防部應(yīng)制定計劃,并詳細說明所需的必要投資,以實現(xiàn)強大和現(xiàn)代化的數(shù)字生態(tài)系統(tǒng)(5203節(jié));
    的頭像 發(fā)表于 06-20 11:30 ?1414次閱讀
    美軍<b class='flag-5'>人工智能</b>的<b class='flag-5'>生態(tài)系統(tǒng)</b>變化綜述

    商湯科技發(fā)布粵語大模型,推動香港人工智能生態(tài)系統(tǒng)發(fā)展

    商湯科技董事長兼 CEO 徐立表示,此次推出商量粵語版具有重要意義,希望借助日日新大模型 5.0 系列的創(chuàng)新產(chǎn)品和巨大潛力,助力香港人工智能生態(tài)系統(tǒng)的發(fā)展。
    的頭像 發(fā)表于 05-31 11:11 ?796次閱讀