一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

使用RAPIDS加速實(shí)現(xiàn)SHAP的模型可解釋性

星星科技指導(dǎo)員 ? 來(lái)源:NVIDIA ? 作者:Nanthini ? 2022-04-21 09:25 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

機(jī)器學(xué)習(xí)( ML )越來(lái)越多地用于醫(yī)療、教育和金融服務(wù)等多個(gè)領(lǐng)域的決策。由于 ML 模型被用于對(duì)人們有實(shí)際影響的情況,因此了解在消除或最小化偏見(jiàn)影響的決策中考慮了哪些特征是至關(guān)重要的。

模型解釋性 幫助開(kāi)發(fā)人員和其他利益相關(guān)者理解模型特征和決策的根本原因,從而使流程更加透明。能夠解釋模型可以幫助數(shù)據(jù)科學(xué)家解釋他們的模型做出決策的原因,為模型增加價(jià)值和信任。在本文中,我們將討論:

對(duì)模型可解釋性的需求

使用 SHAP 的可解釋性

GPU – 從 RAPIDS 加速 SHAP 實(shí)現(xiàn)

使用 演示筆記本 在 Azure 機(jī)器學(xué)習(xí)上使用 SHAP 進(jìn)行模型解釋。

為什么我們需要解釋性?

有六個(gè)主要原因證明機(jī)器學(xué)習(xí)中需要模型互操作性:

理解模型中的公平性問(wèn)題

對(duì)目標(biāo)的準(zhǔn)確理解

創(chuàng)建健壯的模型

調(diào)試模型

解釋結(jié)果

啟用審核

了解模型中的公平性問(wèn)題: 可解釋模型可以解釋選擇結(jié)果的原因。在社會(huì)背景下,這些解釋將不可避免地揭示對(duì)代表性不足群體的固有偏見(jiàn)。克服這些偏見(jiàn)的第一步是看看它們是如何表現(xiàn)出來(lái)的。

更準(zhǔn)確地理解目標(biāo): 對(duì)解釋的需要也源于我們?cè)诔浞掷斫鈫?wèn)題方面的差距。解釋是確保我們能夠看到差距影響的方法之一。它有助于理解模型的預(yù)測(cè)是否符合利益相關(guān)者或?qū)<业哪繕?biāo)。

創(chuàng)建穩(wěn)健的模型: 可解釋模型可以幫助我們理解預(yù)測(cè)中為什么會(huì)存在一些差異,這有助于使預(yù)測(cè)更加穩(wěn)健,并消除預(yù)測(cè)中極端和意外的變化;以及為什么會(huì)出現(xiàn)錯(cuò)誤。增強(qiáng)穩(wěn)健性也有助于在模型中建立信任,因?yàn)樗粫?huì)產(chǎn)生顯著不同的結(jié)果。

模型可解釋性還可以幫助調(diào)試模型,解釋 向利益相關(guān)者提供成果,并使 auditing 以滿足法規(guī)遵從性。

需要注意的是,在某些情況下,可解釋性 MIG 不太重要。例如,在某些情況下,添加可解釋模型可以幫助對(duì)手欺騙系統(tǒng)。

現(xiàn)在我們了解了什么是可解釋性以及為什么我們需要它,讓我們看看最近非常流行的一種實(shí)現(xiàn)方法。

使用 SHAP 和 cuML 的 SHAP 的可解釋性

有不同的方法旨在提高模型的可解釋性;一種模型不可知的方法是 夏普利值 。這是一種從聯(lián)盟博弈論中衍生出來(lái)的方法,它提供了一種公平地將“支出”分配給各個(gè)功能的方法。在機(jī)器學(xué)習(xí)模型的情況下,支出是模型的預(yù)測(cè)/結(jié)果。它的工作原理是計(jì)算整個(gè)數(shù)據(jù)集的 Shapley 值并將其組合。

cuML 是 RAPIDS 中的機(jī)器學(xué)習(xí)庫(kù),支持單 GPU 和多 GPU 機(jī)器學(xué)習(xí)算法,通過(guò) 內(nèi)核解釋程序 和 置換解釋者 提供 GPU 加速模型解釋能力。 核形狀 是 SHAP 最通用和最常用的黑盒解釋程序。它使用加權(quán)線性回歸來(lái)估計(jì)形狀值,使其成為一種計(jì)算效率高的近似值方法。

內(nèi)核 SHAP 的 cuML 實(shí)現(xiàn)為快速 GPU 模型提供了加速,就像 cuML 中的那些模型一樣。它們也可用于基于 CPU 的模型,在這些模型中仍然可以實(shí)現(xiàn)加速,但由于數(shù)據(jù)傳輸和模型本身的速度,它們 MIG 可能會(huì)受到限制。

在下一節(jié)中,我們將討論如何在 Azure 上使用 RAPIDS 內(nèi)核 SHAP 。

使用解釋社區(qū)和 RAPIDS 實(shí)現(xiàn)可解釋性

InterpretML 是一個(gè)開(kāi)源軟件包,將最先進(jìn)的機(jī)器學(xué)習(xí)可解釋性技術(shù)集成在一起。雖然本產(chǎn)品的解釋包中涵蓋了主要的解釋技術(shù)和玻璃盒解釋模型, Interpret-Community 擴(kuò)展了解釋存儲(chǔ)庫(kù),并進(jìn)一步整合了社區(qū)開(kāi)發(fā)的和實(shí)驗(yàn)性的解釋性技術(shù)和功能,這些技術(shù)和功能旨在實(shí)現(xiàn)現(xiàn)實(shí)場(chǎng)景的解釋性。

我們可以將其擴(kuò)展到 解釋 Microsoft Azure 上的模型 ,稍后將對(duì)其進(jìn)行更詳細(xì)的討論。解釋社區(qū)提供各種解釋模型的技術(shù),包括:

Tree 、 Deep 、 Linear 和 Kernel Explainers 基于形狀,

模擬解釋者 基于訓(xùn)練 全局代理模型 (訓(xùn)練模型以近似黑盒模型的預(yù)測(cè)),以及

排列特征重要性( PFI )解釋者 基于 布雷曼關(guān)于蘭德森林的論文 ,其工作原理是對(duì)整個(gè)數(shù)據(jù)集一次一個(gè)特征的數(shù)據(jù)進(jìn)行洗牌,并估計(jì)其對(duì)性能指標(biāo)的影響;變化越大,功能越重要。它可以解釋整體行為,而不是個(gè)人預(yù)測(cè)。

在社區(qū)中集成 GPU 加速 SHAP

為了使 GPU – 加速 SHAP 易于最終用戶訪問(wèn),我們將 integrated 從 cuML 的 GPU 內(nèi)核解釋者 添加到 interpret-community 包中。有權(quán)訪問(wèn) Azure 上具有 GPU s 的虛擬機(jī) ( NVIDIA Pascal 或更高版本)的用戶可以安裝 RAPIDS (》= 0.20 )并通過(guò)將 use _ ZFK5]標(biāo)志設(shè)置為 True 來(lái)啟用 GPU 解釋程序。

from interpret.ext.blackbox import TabularExplainer

# "features" and "classes" fields are optional
explainer = TabularExplainer(model,
                          x_train,
                          features=breast_cancer_data.feature_names,
                          classes=classes,
use_gpu=True)

新添加的 GPUKernelExplainer 還使用 cuML K- 均值 來(lái)復(fù)制 shap.kmeans 的行為。 KMeans 減少了解釋者要處理的背景數(shù)據(jù)的大小。它總結(jié)了通過(guò) K 個(gè)平均樣本傳遞的數(shù)據(jù)集,這些樣本由數(shù)據(jù)點(diǎn)的數(shù)量加權(quán)。將 sklearn K-Means 替換為 cuML 使我們能夠利用 GPU 的速度提升,即使在 SHAP 之前的數(shù)據(jù)預(yù)處理過(guò)程中也是如此。

基于我們的實(shí)驗(yàn),我們發(fā)現(xiàn),當(dāng)與 cuML KerneleExplainer 一起使用時(shí), cuML 模型在某些情況下會(huì)產(chǎn)生最高可達(dá) 270 倍的速度提升的最佳結(jié)果。我們還看到了具有優(yōu)化和快速預(yù)測(cè)調(diào)用的模型的最佳加速,如優(yōu)化的 sklearn 。 svm 。 LinearSVR 和 cuml 。 svm 。 SVR ( kernel =’ linear ‘) 所示。

Azure 中的模型解釋

Azure 機(jī)器學(xué)習(xí)提供了一種通過(guò) azureml-interpret SDK 包獲取常規(guī)和自動(dòng)化 ML 培訓(xùn)說(shuō)明的方法。它使用戶能夠在訓(xùn)練和推理期間,在真實(shí)世界數(shù)據(jù)集上實(shí)現(xiàn)大規(guī)模的模型可解釋性[2]。我們還可以使用交互式可視化來(lái)進(jìn)一步探索整體和單個(gè)模型預(yù)測(cè),并進(jìn)一步了解我們的模型和數(shù)據(jù)集。 Azure 解釋使用解釋社區(qū)包中的技術(shù),這意味著它現(xiàn)在支持 RAPIDS 形狀。我們將瀏覽一個(gè)演示 Azure 上使用 cuML 形狀的模型可解釋性 的示例筆記本。

在 GPU 虛擬機(jī)上使用自定義 Docker 映像設(shè)置 RAPIDS 環(huán)境(本例中為標(biāo)準(zhǔn)的_ NC6s _ v3 )。

from azureml.core import Environment
environment_name = "rapids"
env = Environment(environment_name)
env.docker.enabled = True
env.docker.base_image = None
env.docker.base_dockerfile = """
FROM rapidsai/rapidsai:0.19-cuda11.0-runtime-ubuntu18.04-py3.8
RUN apt-get update && \
apt-get install -y fuse && \
apt-get install -y build-essential && \
apt-get install -y python3-dev && \
source activate rapids && \
pip install azureml-defaults && \
pip install azureml-interpret && \
pip install interpret-community==0.18 && \
pip install azureml-telemetry
"""
env.python.user_managed_dependencies = True

我們提供了一個(gè)腳本( train_explain.py ),它使用 cuML SVM 模型訓(xùn)練和解釋了一個(gè)二進(jìn)制分類問(wèn)題。在這個(gè)例子中,我們使用 希格斯數(shù)據(jù)集 來(lái)預(yù)測(cè)一個(gè)過(guò)程是否產(chǎn)生希格斯玻色子。它有 21 個(gè)由加速器中的粒子探測(cè)器測(cè)量的運(yùn)動(dòng)學(xué)特性。

然后,該腳本使用 GPU SHAP KerneleExplainer 生成模型解釋。

生成的解釋使用我們的 ExplanationClient 上傳到 Azure 機(jī)器學(xué)習(xí),這是上傳和下載解釋的客戶端。這可以在您的計(jì)算機(jī)上本地運(yùn)行,也可以在 Azure 機(jī)器學(xué)習(xí)計(jì)算機(jī)上遠(yuǎn)程運(yùn)行。

from azureml.interpret import ExplanationClient
# Get model explanation data
client = ExplanationClient.from_run(run)
global_explanation = client.download_model_explanation()
local_importance_values = global_explanation.local_importance_values
expected_values = global_explanation.expected_values
# Or you can use the saved run.id to retrive the feature importance values
client = ExplanationClient.from_run_id(ws, experiment_name, run.id)
global_explanation = client.download_model_explanation()
local_importance_values = global_explanation.local_importance_values
expected_values = global_explanation.expected_values
# Get the top k (e.g., 4) most important features with their importance values
global_explanation_topk = client.download_model_explanation(top_k=4)
global_importance_values = global_explanation_topk.get_ranked_global_values()
global_importance_names = global_explanation_topk.get_ranked_global_names()

生成的解釋上傳到 Azure 機(jī)器學(xué)習(xí)運(yùn)行歷史記錄后,您可以在 Azure 機(jī)器學(xué)習(xí)工作室 中的解釋儀表板上查看可視化。

圖 1 :顯示模型性能和特性重要性的解釋儀表板。

我們?cè)?Azure 中的單個(gè) explain _全局調(diào)用上對(duì) CPU 和 GPU 實(shí)現(xiàn)進(jìn)行了基準(zhǔn)測(cè)試。 explain _ global 函數(shù)在使用 explain _ local 時(shí)返回聚合特征重要性值,而不是實(shí)例級(jí)特征重要性值。我們比較了 cuml 。 svm 。 SVR ( kernel =’ rbf ‘)與 sklearn 。 svm 。 SVR ( kernel =’ rbf ‘)對(duì)形狀為( 10000 , 40 )的合成數(shù)據(jù)的影響。

從表 1 中我們可以觀察到,當(dāng)我們使用 GPU 虛擬機(jī)( Standard _ NC6S _ v3 )時(shí),與具有 16 個(gè)內(nèi)核的 CPU 虛擬機(jī)( Standard _ DS5 _ v2 )相比, 2000 行解釋的速度提高了 420 倍。我們注意到,在 16 核 CPU 虛擬機(jī)上使用 64 核 CPU 虛擬機(jī)(標(biāo)準(zhǔn)_ D64S _ v3 )可以產(chǎn)生更快的 CPU 運(yùn)行時(shí)間(大約 1 。 3 倍)。這種更快的 CPU 運(yùn)行仍然比 GPU 運(yùn)行慢得多,而且更昂貴。 GPU 運(yùn)行速度快了 380 倍,成本為 0 。 52 美元,而 64 核 CPU 虛擬機(jī)的成本為 23 美元。我們?cè)?Azure 的美國(guó)東部地區(qū)進(jìn)行了實(shí)驗(yàn)。

圖 2 : Azure 上 CPU 和 GPU 虛擬機(jī)的比較。

表 1 :標(biāo)準(zhǔn) DS5 和標(biāo)準(zhǔn) NC6s _ v3 的比較。

從我們的實(shí)驗(yàn)來(lái)看,在 Azure 上使用 cuML 的 KernelExplainer 被證明更具成本和時(shí)間效率。隨著行數(shù)的增加,速度會(huì)更好。 GPU SHAP 不僅解釋了更多的數(shù)據(jù),而且還節(jié)省了更多的資金和時(shí)間。這會(huì)對(duì)時(shí)間敏感的企業(yè)產(chǎn)生巨大影響。

這是一個(gè)簡(jiǎn)單的例子,說(shuō)明如何在 Azure 上使用 cuML 的 SHAP 進(jìn)行解釋。這可以擴(kuò)展到具有更有趣的模型和數(shù)據(jù)集的更大示例。

關(guān)于作者

Nanthini 是 NVIDIA 的數(shù)據(jù)科學(xué)家和軟件開(kāi)發(fā)人員。她在 RAPIDS 團(tuán)隊(duì)工作,該團(tuán)隊(duì)專注于使用 GPU 加速數(shù)據(jù)科學(xué)管道。她的工作包括進(jìn)行概念驗(yàn)證、開(kāi)發(fā)和維護(hù)功能、將 RAPIDS 與外部框架集成,以及通過(guò)示例用例演示這些工具的使用。最近,她一直致力于 RAPIDS 框架和微軟解釋之間的集成。 2019 ,她獲得了賓夕法尼亞大學(xué)計(jì)算機(jī)科學(xué)碩士學(xué)位。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    4943

    瀏覽量

    131210
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8501

    瀏覽量

    134583
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    中國(guó)科學(xué)院西安光機(jī)所在計(jì)算成像可解釋性深度學(xué)習(xí)重建方法取得進(jìn)展

    圖1 MDFP-Net網(wǎng)絡(luò)結(jié)構(gòu) 近日,中國(guó)科學(xué)院西安光機(jī)所空間光學(xué)技術(shù)研究室在計(jì)算成像可解釋性深度學(xué)習(xí)重建方法研究取得創(chuàng)新進(jìn)展。相關(guān)研究成果發(fā)表于計(jì)算機(jī)視覺(jué)與圖形學(xué)領(lǐng)域國(guó)際著名期刊
    的頭像 發(fā)表于 06-09 09:27 ?210次閱讀
    中國(guó)科學(xué)院西安光機(jī)所在計(jì)算成像<b class='flag-5'>可解釋性</b>深度學(xué)習(xí)重建方法取得進(jìn)展

    云知聲四篇論文入選自然語(yǔ)言處理頂會(huì)ACL 2025

    結(jié)果正式公布。云知聲在此次國(guó)際學(xué)術(shù)盛會(huì)中表現(xiàn)卓越,共有4篇論文被接收,其中包括2篇主會(huì)論文(Main Paper)和2篇Findings。入選的4篇論文聚焦大語(yǔ)言模型知識(shí)溯源、圖文音多模態(tài)大模型、大語(yǔ)言模型
    的頭像 發(fā)表于 05-26 14:15 ?551次閱讀
    云知聲四篇論文入選自然語(yǔ)言處理頂會(huì)ACL 2025

    一種實(shí)時(shí)多線程VSLAM框架vS-Graphs介紹

    針對(duì)現(xiàn)有VSLAM系統(tǒng)語(yǔ)義表達(dá)不足、地圖可解釋性差的問(wèn)題,本文提出vS-Graphs,一種實(shí)時(shí)多線程VSLAM框架。該方案顯著提升了重建地圖的語(yǔ)義豐富度、可解釋性及定位精度。實(shí)驗(yàn)表明
    的頭像 發(fā)表于 04-19 14:07 ?390次閱讀
    一種實(shí)時(shí)多線程VSLAM框架vS-Graphs介紹

    算法進(jìn)化論:從參數(shù)剪枝到意識(shí)解碼的 AI 革命

    電子發(fā)燒友網(wǎng)報(bào)道(文 / 李彎彎)在人工智能領(lǐng)域,算法創(chuàng)新無(wú)疑是推動(dòng)技術(shù)持續(xù)前行的核心動(dòng)力源泉。近些年來(lái),隨著深度學(xué)習(xí)、強(qiáng)化學(xué)習(xí)等前沿技術(shù)相繼取得重大突破,AI 算法在效率提升、可解釋性增強(qiáng)以及泛化
    的頭像 發(fā)表于 04-19 00:38 ?1757次閱讀

    Sapphire Rapids與OpenVINO?工具套件是否兼容?

    無(wú)法確定 Sapphire Rapids 與 OpenVINO? 工具套件的兼容
    發(fā)表于 03-05 06:55

    模型領(lǐng)域常用名詞解釋(近100個(gè))

    本文總結(jié)了大模型領(lǐng)域常用的近100個(gè)名詞解釋,并按照模型架構(gòu)與基礎(chǔ)概念,訓(xùn)練方法與技術(shù),模型優(yōu)化與壓縮,推理與應(yīng)用,計(jì)算與性能優(yōu)化,數(shù)據(jù)與標(biāo)簽,模型
    的頭像 發(fā)表于 02-19 11:49 ?783次閱讀
    大<b class='flag-5'>模型</b>領(lǐng)域常用名詞<b class='flag-5'>解釋</b>(近100個(gè))

    AI大模型在汽車應(yīng)用中的推理、降本與可解釋性研究

    佐思汽研發(fā)布《2024-2025年AI大模型及其在汽車領(lǐng)域的應(yīng)用研究報(bào)告》。 推理能力成為大模型性能提升的驅(qū)動(dòng)引擎 2024下半年以來(lái),國(guó)內(nèi)外大模型公司紛紛推出推理模型,通過(guò)以CoT為
    的頭像 發(fā)表于 02-18 15:02 ?1229次閱讀
    AI大<b class='flag-5'>模型</b>在汽車應(yīng)用中的推理、降本與<b class='flag-5'>可解釋性</b>研究

    了解DeepSeek-V3 和 DeepSeek-R1兩個(gè)大模型的不同定位和應(yīng)用選擇

    ) 擴(kuò)展上下文+結(jié)構(gòu)化推理(支持更長(zhǎng)復(fù)雜輸入) 響應(yīng)控制 通用流暢優(yōu)先 強(qiáng)化分步解釋與中間過(guò)程可解釋性 3. 技術(shù)架構(gòu)差異 技術(shù)點(diǎn) DeepSeek-V3 DeepSeek-R1 訓(xùn)練數(shù)據(jù) 通用語(yǔ)料+部分
    發(fā)表于 02-14 02:08

    小白學(xué)解釋性AI:從機(jī)器學(xué)習(xí)到大模型

    科學(xué)AI需要可解釋性人工智能的崛起,尤其是深度學(xué)習(xí)的發(fā)展,在眾多領(lǐng)域帶來(lái)了令人矚目的進(jìn)步。然而,伴隨這些進(jìn)步而來(lái)的是一個(gè)關(guān)鍵問(wèn)題——“黑箱”問(wèn)題。許多人工智能模型,特別是復(fù)雜的模型,如神經(jīng)網(wǎng)
    的頭像 發(fā)表于 02-10 12:12 ?623次閱讀
    小白學(xué)<b class='flag-5'>解釋性</b>AI:從機(jī)器學(xué)習(xí)到大<b class='flag-5'>模型</b>

    AI模型思維鏈功能升級(jí),提升透明度與可信度

    的透明度。 值得注意的是,此次更新發(fā)生在DeepSeek-R1推理模型發(fā)布之后。作為OpenAI的競(jìng)爭(zhēng)對(duì)手,DeepSeek-R1同樣具備展示其反應(yīng)背后思維過(guò)程的能力。兩大模型在這一功能上的不謀而合,無(wú)疑彰顯了AI領(lǐng)域?qū)τ谔嵘龥Q策透明度與
    的頭像 發(fā)表于 02-10 09:06 ?539次閱讀

    RAPIDS cuDF將pandas提速近150倍

    在 NVIDIA GTC 2024 上,NVIDIA 宣布,RAPIDS cuDF 當(dāng)前已能夠?yàn)?950 萬(wàn) pandas 用戶帶來(lái) GPU 加速,且無(wú)需修改代碼。
    的頭像 發(fā)表于 11-20 09:52 ?656次閱讀
    <b class='flag-5'>RAPIDS</b> cuDF將pandas提速近150倍

    一種基于因果路徑的層次圖卷積注意力網(wǎng)絡(luò)

    機(jī)電系統(tǒng)中數(shù)據(jù)驅(qū)動(dòng)故障檢測(cè)模型的性能和可解釋性。引入了一種混合因果發(fā)現(xiàn)算法來(lái)發(fā)現(xiàn)監(jiān)測(cè)變量之間的繼承因果關(guān)系。順序連接因果變量的因果路徑用作接收?qǐng)?,使用多尺度卷積來(lái)提取特征。基于分層注意力機(jī)制來(lái)聚合
    的頭像 發(fā)表于 11-12 09:52 ?1068次閱讀
    一種基于因果路徑的層次圖卷積注意力網(wǎng)絡(luò)

    FPGA加速深度學(xué)習(xí)模型的案例

    FPGA(現(xiàn)場(chǎng)可編程門陣列)加速深度學(xué)習(xí)模型是當(dāng)前硬件加速領(lǐng)域的一個(gè)熱門研究方向。以下是一些FPGA加速深度學(xué)習(xí)模型的案例: 一、基于FPG
    的頭像 發(fā)表于 10-25 09:22 ?1220次閱讀

    常見(jiàn)AI大模型的比較與選擇指南

    在選擇AI大模型時(shí),明確具體需求、了解模型的訓(xùn)練數(shù)據(jù)、計(jì)算資源要求和成本,并考慮模型可解釋性和社區(qū)支持情況等因素至關(guān)重要。以下是對(duì)常見(jiàn)AI大模型
    的頭像 發(fā)表于 10-23 15:36 ?2650次閱讀

    LLM大模型推理加速的關(guān)鍵技術(shù)

    LLM(大型語(yǔ)言模型)大模型推理加速是當(dāng)前人工智能領(lǐng)域的一個(gè)研究熱點(diǎn),旨在提高模型在處理復(fù)雜任務(wù)時(shí)的效率和響應(yīng)速度。以下是對(duì)LLM大模型推理
    的頭像 發(fā)表于 07-24 11:38 ?1804次閱讀