一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

AI大模型在汽車應(yīng)用中的推理、降本與可解釋性研究

佐思汽車研究 ? 來源:佐思汽車研究 ? 2025-02-18 15:02 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

佐思汽研發(fā)布《2024-2025年AI大模型及其在汽車領(lǐng)域的應(yīng)用研究報(bào)告》。

推理能力成為大模型性能提升的驅(qū)動(dòng)引擎

2024下半年以來,國(guó)內(nèi)外大模型公司紛紛推出推理模型,通過以CoT為代表的推理框架,加強(qiáng)大模型對(duì)復(fù)雜任務(wù)處理能力和自主決策能力。

部分大模型公司的推理模型發(fā)布情況

27871978-edbd-11ef-9310-92fbcf53809c.png

來源:佐思汽研《2024-2025年AI大模型及其在汽車領(lǐng)域的應(yīng)用研究報(bào)告》

推理模型的密集上線,是為了提升大模型在復(fù)雜場(chǎng)景下的應(yīng)對(duì)能力,同時(shí)也為Agent上線奠定基礎(chǔ);具體到汽車行業(yè),汽車大模型推理能力的提升,能夠切實(shí)解決AI應(yīng)用場(chǎng)景下的痛點(diǎn)問題,如加強(qiáng)座艙助手對(duì)復(fù)雜語(yǔ)義的意圖識(shí)別和提升自動(dòng)駕駛規(guī)劃決策中的時(shí)空預(yù)測(cè)場(chǎng)景精度。

部分汽車AI應(yīng)用場(chǎng)景下對(duì)大模型推理能力的需求

2799bb6e-edbd-11ef-9310-92fbcf53809c.png

整理:佐思汽研

2024年,上車的主流大模型推理技術(shù)仍以思維鏈CoT及其變種為主(如思維樹ToT、思維圖GoT、思維森林FoT等),在不同的場(chǎng)景下會(huì)融合生成模型(如擴(kuò)散模型)、知識(shí)圖譜、因果推理模型、累積推理、多模態(tài)推理鏈等技術(shù)。

如吉利提出模塊化思維語(yǔ)言模型(MeTHanol),讓大語(yǔ)言模型合成人類思維并用于監(jiān)督 LLM 的隱藏層,通過適應(yīng)日常對(duì)話和個(gè)性化提示,生成類似人類的思維行為,增強(qiáng)大語(yǔ)言模型的思維和推理能力,并提升可解釋性。

MeTHanol(含中間思維層的雙層微調(diào)和兩階段推理)與標(biāo)準(zhǔn)SFT技術(shù)的對(duì)比

27b839e0-edbd-11ef-9310-92fbcf53809c.png

來源:吉利

2025年,推理技術(shù)的重點(diǎn)會(huì)向多模態(tài)推理轉(zhuǎn)移,常用的訓(xùn)練技術(shù)包括指令微調(diào)、多模態(tài)上下文學(xué)習(xí)與多模態(tài)思維鏈(M - CoT)等,多通過多模態(tài)融合對(duì)齊技術(shù)與LLM的推理技術(shù)結(jié)合而成。

部分多模態(tài)推理技術(shù)

27bc61a0-edbd-11ef-9310-92fbcf53809c.png

整理:佐思汽研

可解釋性成為AI與用戶的信任橋梁

在用戶體會(huì)到AI的“好用”之前,首先需要滿足用戶對(duì)AI的“信任”,所以,2025年,AI系統(tǒng)運(yùn)行的可解釋性成為汽車AI用戶基數(shù)增長(zhǎng)的關(guān)鍵一環(huán),該痛點(diǎn)也可通過長(zhǎng)思維鏈的展示來解決。

AI系統(tǒng)的可解釋性可通過數(shù)據(jù)可解釋性、模型可解釋性和事后可解釋性三個(gè)層面分別實(shí)現(xiàn):

AI可解釋性的三個(gè)層面

27d808c4-edbd-11ef-9310-92fbcf53809c.png

27e7c71e-edbd-11ef-9310-92fbcf53809c.png

來源:IEEE;整理:佐思汽研

以理想為例,理想 L3 智駕通過 “AI 推理可視化技術(shù)”,可直觀呈現(xiàn)端到端 + VLM 模型的思考過程,涵蓋從物理世界感知輸入到大模型完成行駛決策輸出的全流程,提升用戶對(duì)智能駕駛系統(tǒng)的信任。

理想L3智駕的可解釋性

28058db2-edbd-11ef-9310-92fbcf53809c.jpg

來源:理想

理想的“AI推理可視化技術(shù)”中:

Attention(注意力系統(tǒng))主要負(fù)責(zé)展示車輛感知到的交通和環(huán)境路況信息,能對(duì)實(shí)時(shí)視頻流中的交通參與者進(jìn)行行為評(píng)估,并使用熱力圖展示評(píng)估對(duì)象。

E2E(端到端模型)用于展示行駛軌跡輸出的思考過程。模型會(huì)思考不同的行駛軌跡,展示 10 個(gè)候選輸出結(jié)果,最終采用概率最大的輸出結(jié)果作為行駛路徑。

VLM(視覺語(yǔ)言模型)可展示自身的感知、推理和決策過程,其工作過程使用對(duì)話形式展示。

同時(shí),理想Agent“理想同學(xué)”也提供可視化的工作流:

“理想同學(xué)”工作流

2809803e-edbd-11ef-9310-92fbcf53809c.png

來源:理想

同樣通過長(zhǎng)思維鏈進(jìn)行推理流程拆解的還有各個(gè)推理模型的對(duì)話界面,以DeepSeek R1為例,在與用戶的對(duì)話中,會(huì)先通過思維鏈展示每一個(gè)節(jié)點(diǎn)的決策,并通過自然語(yǔ)言進(jìn)行說明。

DeepSeek R1長(zhǎng)思維鏈界面

2823b4a4-edbd-11ef-9310-92fbcf53809c.png

來源:DeepSeek R1對(duì)話界面

此外,智譜的GLM-Zero-Preview、阿里的QwQ-32B-Preview、天工4.0 o1等大部分推理模型均支持長(zhǎng)思維鏈推理流程展示。

DeepSeek降低大模型上車的門檻,性能提升與降本兼得

推理能力乃至綜合性能的提升,是否意味著需要付出高額成本?從DeepSeek的爆火來看,并不是。2025年初,主機(jī)廠先后接入DeepSeek,從應(yīng)用詳情來看,基本上是以提升車載大模型的綜合能力為主。

2025年初,部分主機(jī)廠與DeepSeek合作情況

283cf73e-edbd-11ef-9310-92fbcf53809c.png

整理:佐思汽研

事實(shí)上,DeepSeek系列模型推出之前,各大主機(jī)廠已經(jīng)按照自己的節(jié)奏有序推進(jìn)旗下車載AI大模型的開發(fā)與迭代工作。以座艙助手為例,部分主機(jī)廠的方案已經(jīng)初步完成構(gòu)建,并已接入云端大模型供應(yīng)商試運(yùn)行或初步敲定供應(yīng)商,其中不乏阿里云、騰訊云等云服務(wù)廠商以及智譜等大模型公司,2025年初再次接入DeepSeek,看重的包括:

強(qiáng)大的推理性能表現(xiàn),如推理模型R1的性能與OPEN AI 推理模型o1相當(dāng),甚至在數(shù)學(xué)邏輯方面更為突出;

更低的成本,在保證性能的同時(shí),訓(xùn)練與推理成本均保持在同行業(yè)較低水平。

DeepSeek R1與OPEN AI o1模型成本的比較

285b919e-edbd-11ef-9310-92fbcf53809c.png

來源:公開信息

以上2點(diǎn)優(yōu)勢(shì)均在DeepSeek的技術(shù)創(chuàng)新上有所體現(xiàn):

DeepSeek系列的部分技術(shù)對(duì)大模型性能和成本的影響

28669efe-edbd-11ef-9310-92fbcf53809c.png

整理:佐思汽研

通過接入DeepSeek,主機(jī)廠在部署智駕和座艙助手時(shí),可以切實(shí)地降低大模型性能硬件采購(gòu)、模型訓(xùn)練與維護(hù)成本,同時(shí)保證性能不下降:

低計(jì)算開銷技術(shù)推動(dòng)高階智駕、智艙平權(quán),意味著低算力車載芯片(如邊緣計(jì)算單元)上也可實(shí)現(xiàn)部署高性能模型,降低對(duì)高成本GPU的依賴;再結(jié)合DualPipe算法、FP8混合精度訓(xùn)練等技術(shù),優(yōu)化算力利用率,從而實(shí)現(xiàn)中低端車型也能部署高階座艙功能、高階智駕系統(tǒng),加速智能座艙的普及。

實(shí)時(shí)性增強(qiáng),在汽車行駛環(huán)境下,智駕系統(tǒng)需實(shí)時(shí)處理大量傳感器數(shù)據(jù),座艙助手需要快速響應(yīng)用戶指令,而車端計(jì)算資源有限。DeepSeek 計(jì)算開銷的降低使傳感器數(shù)據(jù)的處理速度更快,可更高效的利用智駕芯片算力(服務(wù)器端訓(xùn)練階段,DeepSeek實(shí)現(xiàn)了對(duì)英偉達(dá)A100芯片90%的算力利用率),同時(shí)降低延遲(如在高通8650平臺(tái)上,芯片算力同為100TOPS時(shí),使用DeepSeek推理響應(yīng)時(shí)間從20毫秒降至9 - 10毫秒)。在智駕系統(tǒng)中,可確保駕駛決策及時(shí)準(zhǔn)確,提升駕駛安全性和用戶體驗(yàn)。在座艙系統(tǒng)中,支持座艙助手快速響應(yīng)用戶語(yǔ)音指令,實(shí)現(xiàn)流暢人機(jī)交互。

吉利星睿大模型的系統(tǒng)2接入DeepSeek R1

28862d00-edbd-11ef-9310-92fbcf53809c.png

來源:吉利

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    88

    文章

    35164

    瀏覽量

    279934
  • 汽車
    +關(guān)注

    關(guān)注

    15

    文章

    3858

    瀏覽量

    39554
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3146

    瀏覽量

    4070

原文標(biāo)題:AI大模型及汽車應(yīng)用研究:推理、降本和可解釋性

文章出處:【微信號(hào):zuosiqiche,微信公眾號(hào):佐思汽車研究】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    信而泰×DeepSeek:AI推理引擎驅(qū)動(dòng)網(wǎng)絡(luò)智能診斷邁向 “自愈”時(shí)代

    DeepSeek-R1:強(qiáng)大的AI推理引擎底座DeepSeek是由杭州深度求索人工智能基礎(chǔ)技術(shù)研究有限公司開發(fā)的新一代AI模型。其核心優(yōu)勢(shì)
    發(fā)表于 07-16 15:29

    模型推理顯存和計(jì)算量估計(jì)方法研究

    ,為實(shí)際應(yīng)用提供了有益的參考。 未來,我們將繼續(xù)深入研究模型推理的優(yōu)化方法,以降低顯存和計(jì)算資源的需求,提高深度學(xué)習(xí)模型實(shí)際應(yīng)用
    發(fā)表于 07-03 19:43

    模型自適應(yīng)控制永磁同步電機(jī)轉(zhuǎn)速的仿真研究

    的可行和有效。 純分享帖,點(diǎn)擊下方附件免費(fèi)獲取完整資料~~~ *附件:無模型自適應(yīng)控制永磁同步電機(jī)轉(zhuǎn)速的仿真
    發(fā)表于 06-25 13:01

    中國(guó)科學(xué)院西安光機(jī)所在計(jì)算成像可解釋性深度學(xué)習(xí)重建方法取得進(jìn)展

    圖1 MDFP-Net網(wǎng)絡(luò)結(jié)構(gòu) 近日,中國(guó)科學(xué)院西安光機(jī)所空間光學(xué)技術(shù)研究計(jì)算成像可解釋性深度學(xué)習(xí)重建方法研究取得創(chuàng)新進(jìn)展。相關(guān)
    的頭像 發(fā)表于 06-09 09:27 ?221次閱讀
    中國(guó)科學(xué)院西安光機(jī)所在計(jì)算成像<b class='flag-5'>可解釋性</b>深度學(xué)習(xí)重建方法取得進(jìn)展

    首創(chuàng)開源架構(gòu),天璣AI開發(fā)套件讓端側(cè)AI模型接入得心應(yīng)手

    PIX GP模型的整合,并且針對(duì)模型進(jìn)行全鏈路微秒級(jí)分析,以確保最佳的端到端性能表現(xiàn)。雙方的整個(gè)合作流程,開發(fā)效率提升了30%。 天璣AI
    發(fā)表于 04-13 19:52

    了解DeepSeek-V3 和 DeepSeek-R1兩個(gè)大模型的不同定位和應(yīng)用選擇

    ) 擴(kuò)展上下文+結(jié)構(gòu)化推理(支持更長(zhǎng)復(fù)雜輸入) 響應(yīng)控制 通用流暢優(yōu)先 強(qiáng)化分步解釋與中間過程可解釋性 3. 技術(shù)架構(gòu)差異 技術(shù)點(diǎn) DeepSeek-V3 DeepSeek-R1 訓(xùn)
    發(fā)表于 02-14 02:08

    Qwen大模型助力開發(fā)低成本AI推理方案

    阿里巴巴的開源Qwen2.5模型近期AI領(lǐng)域引發(fā)了廣泛關(guān)注。這一大模型的推出,為斯坦福大學(xué)與伯克利大學(xué)的研究人員提供了強(qiáng)大的技術(shù)支持,使他
    的頭像 發(fā)表于 02-12 09:19 ?651次閱讀

    小白學(xué)解釋性AI:從機(jī)器學(xué)習(xí)到大模型

    科學(xué)AI需要可解釋性人工智能的崛起,尤其是深度學(xué)習(xí)的發(fā)展,眾多領(lǐng)域帶來了令人矚目的進(jìn)步。然而,伴隨這些進(jìn)步而來的是一個(gè)關(guān)鍵問題——“黑箱”問題。許多人工智能模型,特別是復(fù)雜的
    的頭像 發(fā)表于 02-10 12:12 ?627次閱讀
    小白學(xué)<b class='flag-5'>解釋性</b><b class='flag-5'>AI</b>:從機(jī)器學(xué)習(xí)到大<b class='flag-5'>模型</b>

    AI模型思維鏈功能升級(jí),提升透明度與可信度

    的透明度。 值得注意的是,此次更新發(fā)生在DeepSeek-R1推理模型發(fā)布之后。作為OpenAI的競(jìng)爭(zhēng)對(duì)手,DeepSeek-R1同樣具備展示其反應(yīng)背后思維過程的能力。兩大模型在這一功能上的不謀而合,無疑彰顯了AI領(lǐng)域?qū)τ谔嵘龥Q
    的頭像 發(fā)表于 02-10 09:06 ?541次閱讀

    阿里云開源推理模型QwQ

    推理能力,尤其在數(shù)學(xué)和編程方面表現(xiàn)突出。其整體推理水平已經(jīng)可以與OpenAI的o1模型相媲美,這充分展示了QwQ的強(qiáng)大實(shí)力和潛力。 QwQ(Qwen with Questions)是通義千問Qwen大
    的頭像 發(fā)表于 11-29 11:30 ?1169次閱讀

    高效大模型推理綜述

    模型由于其各種任務(wù)的出色表現(xiàn)而引起了廣泛的關(guān)注。然而,大模型推理的大量計(jì)算和內(nèi)存需求對(duì)其
    的頭像 發(fā)表于 11-15 11:45 ?1461次閱讀
    高效大<b class='flag-5'>模型</b>的<b class='flag-5'>推理</b>綜述

    FPGA和ASIC模型推理加速的應(yīng)用

    隨著現(xiàn)在AI的快速發(fā)展,使用FPGA和ASIC進(jìn)行推理加速的研究也越來越多,從目前的市場(chǎng)來說,有些公司已經(jīng)有了專門做推理的ASIC,像Groq的LPU,專門針對(duì)大語(yǔ)言
    的頭像 發(fā)表于 10-29 14:12 ?2029次閱讀
    FPGA和ASIC<b class='flag-5'>在</b>大<b class='flag-5'>模型</b><b class='flag-5'>推理</b>加速<b class='flag-5'>中</b>的應(yīng)用

    常見AI模型的比較與選擇指南

    選擇AI模型時(shí),明確具體需求、了解模型的訓(xùn)練數(shù)據(jù)、計(jì)算資源要求和成本,并考慮模型可解釋性
    的頭像 發(fā)表于 10-23 15:36 ?2668次閱讀

    AI for Science:人工智能驅(qū)動(dòng)科學(xué)創(chuàng)新》第二章AI for Science的技術(shù)支撐學(xué)習(xí)心得

    。 4. 物理與AI的融合 閱讀過程,我對(duì)于物理與AI的融合有了更加深入的認(rèn)識(shí)。AI for Science不僅依賴于數(shù)據(jù),還需要結(jié)合物
    發(fā)表于 10-14 09:16

    LLM大模型推理加速的關(guān)鍵技術(shù)

    LLM(大型語(yǔ)言模型)大模型推理加速是當(dāng)前人工智能領(lǐng)域的一個(gè)研究熱點(diǎn),旨在提高模型處理復(fù)雜任務(wù)
    的頭像 發(fā)表于 07-24 11:38 ?1822次閱讀