一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

自動駕駛中一直說的BEV+Transformer到底是個啥?

智駕最前沿 ? 來源:智駕最前沿 ? 作者:智駕最前沿 ? 2024-11-07 11:19 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在很多車企的自動駕駛介紹中,都會聽到一個關(guān)鍵技術(shù),那就是BEV+Transformer,那BEV+Transformer到底是個啥?為什么很多車企在自動駕駛技術(shù)中都十分追捧這項技術(shù)?其實“BEV(Bird’s Eye View)+Transformer”是兩個方向的技術(shù),BEV是一種全新的3D坐標(biāo)系,而Transformer則是一種深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)模型,BEV+Transformer的組合方案在感知、理解和預(yù)測方面表現(xiàn)得更為強(qiáng)大,徹底終結(jié)了2D直視圖+CNN時代。BEV+Transformer通過鳥瞰視角與Transformer模型的結(jié)合,顯著提升了自動駕駛系統(tǒng)的環(huán)境感知與決策支持能力。BEV+Transformer的首次亮相是由特斯提出,高效解決了其純視覺方案下多個攝像頭的數(shù)據(jù)融合的問題,隨后國內(nèi)的小鵬、理想、蔚來等車企以及毫末智行、百度Apollo、商湯、地平線等Tier 1也紛紛跟進(jìn),提出了自己的BEV+Transformer方案。

wKgZoWcsMVuAPBRPABoSn4hmHAU098.pngTier 1智能駕駛集感知模型應(yīng)用,來源:億歐智庫

BEV(鳥瞰視角)的概念

1.BEV的定義和背景

BEV即“Bird’s Eye View”(鳥瞰視角),顧名思義,它能夠?qū)⒁曈X信息立體化,如同一只鳥兒在車輛正上方俯瞰,周圍的環(huán)境信息以自上而下的方式展示在坐標(biāo)系中,可以生成是以車輛為中心、從高空俯視車輛周圍環(huán)境的視角。與攝像頭獲取的前視圖相比,BEV視角能夠顯示更多的車輛周圍信息。這種視角在自動駕駛中十分重要,因為它為感知系統(tǒng)提供了更廣闊的空間視野,有助于系統(tǒng)更好地理解復(fù)雜交通場景中的多方位環(huán)境。

wKgaoWcsMXGACa98ABKv9cv3VQA310.png

2.BEV視角的生成過程

獲取BEV視角通常依賴于多種傳感器的數(shù)據(jù)融合,如攝像頭、激光雷達(dá)和毫米波雷達(dá)。這些傳感器以不同角度捕獲環(huán)境數(shù)據(jù),然后通過深度估計、幾何投影(尤其是透視投影變換)和坐標(biāo)轉(zhuǎn)換等步驟,將各視角的圖像或點云數(shù)據(jù)整合為一個鳥瞰圖。特別是在攝像頭生成BEV視角的過程中,這種投影轉(zhuǎn)換需要考慮到圖像的畸變和透視效果,以確保視角的準(zhǔn)確性。

3.BEV視角的實際應(yīng)用

BEV視角在自動駕駛中的應(yīng)用主要體現(xiàn)在復(fù)雜交通場景下的環(huán)境理解,如多車道并行、十字路口和環(huán)形交叉路口等。通過BEV視角,系統(tǒng)不僅可以識別前方物體,還能準(zhǔn)確檢測車輛四周的障礙物、行人、非機(jī)動車和建筑物,從而為安全行駛提供更全面的環(huán)境信息。

Transformer的基本概念與作用

1.Transformer模型的起源

Transformer模型最早由谷歌在2017年的“Attention is all you need”一文中提出,最初用于自然語言處理(NLP)領(lǐng)域的翻譯和文本生成任務(wù)。與傳統(tǒng)的RNN、LSTM模型不同,Transformer的自注意力機(jī)制(Self-Attention)允許其處理任意長度的輸入序列,且并行計算性能強(qiáng),因此在大規(guī)模數(shù)據(jù)處理和高效計算方面有顯著優(yōu)勢。隨著AI深度學(xué)習(xí)的興起,Transformer被應(yīng)用在BEV空間轉(zhuǎn)換、時間序列上,形成了一個端到端的模型。

2.Transformer在視覺任務(wù)中的擴(kuò)展

Transformer模型逐步被應(yīng)用于計算機(jī)視覺(CV)任務(wù),如目標(biāo)檢測、語義分割和物體跟蹤等。其自注意力機(jī)制能夠在圖像上捕捉全局信息并分析不同位置特征之間的關(guān)系,幫助系統(tǒng)建立物體之間的空間關(guān)系。這在復(fù)雜場景下尤其重要,例如城市道路中需要理解不同車輛、行人之間的動態(tài)交互。

3.Transformer在BEV視角中的作用

在BEV+Transformer架構(gòu)中,Transformer模型負(fù)責(zé)將BEV視角中的特征圖信息轉(zhuǎn)化為高層次的語義信息。通過自注意力機(jī)制,Transformer能夠在特征圖上找到重要物體之間的相對位置關(guān)系,并分析它們的行為趨勢。例如,Transformer可以識別車道內(nèi)外車輛的距離和速度關(guān)系,有助于預(yù)測其他車輛的運(yùn)動軌跡。

wKgaoWcsMXuARuS_ABHjR-HE5Do851.png

BEV+Transformer的技術(shù)原理

1.多傳感器數(shù)據(jù)融合與轉(zhuǎn)換

BEV+Transformer的核心在于將來自不同傳感器的數(shù)據(jù)統(tǒng)一轉(zhuǎn)換為BEV視角的特征圖,再利用Transformer進(jìn)行深度分析。首先,通過卷積神經(jīng)網(wǎng)絡(luò)(CNN)對攝像頭和雷達(dá)數(shù)據(jù)提取特征,并進(jìn)行投影轉(zhuǎn)換生成BEV視角的特征圖。這樣就能在車身上方生成完整的俯視圖,為Transformer模型提供豐富的環(huán)境信息。

wKgaoWcsMYGAb4OdABK6k2kfuoQ643.png

2.自注意力機(jī)制的全局關(guān)系分析

Transformer模型利用自注意力機(jī)制分析BEV特征圖中的不同位置特征,建立物體與物體之間的相關(guān)性。例如,系統(tǒng)可以分析道路上的車輛、行人、障礙物的分布及其相對速度,預(yù)測他們的行為變化趨勢。這種全局關(guān)系的分析使得系統(tǒng)對復(fù)雜場景的環(huán)境理解更加深刻和準(zhǔn)確。

3.高層次語義信息的輸出與決策支持

Transformer處理完BEV視角特征后,生成的輸出包含環(huán)境的高層次語義信息,包括物體類別、位置、運(yùn)動趨勢等。這些信息不僅可以用于路徑規(guī)劃,還能輔助車輛進(jìn)行避障和動態(tài)調(diào)整。在自動駕駛決策模塊中,這些高層信息與其他預(yù)測結(jié)果結(jié)合,生成更加智能的駕駛策略。

BEV+Transformer的實際應(yīng)用案例

1.障礙物檢測與識別

BEV+Transformer架構(gòu)可在復(fù)雜交通場景中識別各類障礙物,包括車輛、行人和道路設(shè)施等。通過自注意力機(jī)制,系統(tǒng)能夠在特征圖中捕捉到環(huán)境中關(guān)鍵物體的位置和運(yùn)動方向,并對潛在的障礙物進(jìn)行跟蹤檢測,有助于及時生成避障方案。

2.路徑預(yù)測與動態(tài)規(guī)劃

在路徑預(yù)測方面,BEV+Transformer架構(gòu)通過學(xué)習(xí)環(huán)境中各參與者的運(yùn)動特征,預(yù)測車輛和行人等的行駛軌跡。這種全局化預(yù)測在車流密集的場景中尤為重要,能夠幫助自動駕駛系統(tǒng)提前分析其他交通參與者的行為趨勢,從而制定更安全、順暢的行駛路徑。

3.車道線識別與輔助駕駛

在高速公路或復(fù)雜路口,車輛需要精準(zhǔn)識別車道線以保持在車道內(nèi)行駛。傳統(tǒng)攝像頭的識別易受光線和視角影響,而BEV+Transformer結(jié)合了全方位的鳥瞰圖,確保了在惡劣條件下也能穩(wěn)定識別車道線,使車輛在變道或急轉(zhuǎn)彎時更安全。

BEV+Transformer的優(yōu)勢

1.全局視角與空間理解能力

BEV視角帶來了全局性的環(huán)境感知能力,能夠減少車輛周圍盲區(qū)。Transformer的自注意力機(jī)制則增強(qiáng)了系統(tǒng)的空間理解能力,在BEV特征圖中識別出場景內(nèi)物體的長距離關(guān)系,使得自動駕駛系統(tǒng)對復(fù)雜環(huán)境的認(rèn)知更全面。

2.多模態(tài)數(shù)據(jù)的統(tǒng)一融合

BEV+Transformer架構(gòu)能夠在統(tǒng)一的特征圖中處理多傳感器信息,提升了感知的精度。例如,圖像與點云數(shù)據(jù)經(jīng)過前期融合后,再經(jīng)由Transformer分析,大大減少了因多傳感器不一致而產(chǎn)生的誤差,從而提升了模型的魯棒性。

wKgZoWcsMYyAEvUbAA6N8OxLR-4662.png

3.有效的預(yù)測能力

Transformer在視覺任務(wù)中展現(xiàn)出的強(qiáng)大預(yù)測能力,使BEV+Transformer架構(gòu)可以更準(zhǔn)確地預(yù)測其他車輛、行人的行為。尤其在動態(tài)交通場景中,Transformer結(jié)合BEV信息能提供精細(xì)的路徑預(yù)測,幫助自動駕駛系統(tǒng)提前識別潛在風(fēng)險。

BEV+Transformer的局限性與挑戰(zhàn)

1.計算資源需求與實時性挑戰(zhàn)

Transformer的自注意力機(jī)制對計算資源需求較大,尤其是在處理多傳感器融合數(shù)據(jù)時,可能會導(dǎo)致推理延遲問題。自動駕駛系統(tǒng)需要達(dá)到毫秒級響應(yīng)速度,這對計算資源提出了高要求。一些優(yōu)化技術(shù)(如分塊自注意力)可以減小負(fù)擔(dān),但實現(xiàn)高效實時推理仍是挑戰(zhàn)。

2.傳感器精度和同步性依賴

BEV+Transformer的表現(xiàn)高度依賴傳感器的精度與同步性。在復(fù)雜環(huán)境中,天氣、遮擋、反射等因素可能導(dǎo)致傳感器獲取的信息出現(xiàn)偏差,從而影響B(tài)EV視角的準(zhǔn)確性。傳感器誤差會使Transformer的分析結(jié)果不可靠,影響系統(tǒng)的整體表現(xiàn)。

3.復(fù)雜交通場景的魯棒性

BEV+Transformer在高動態(tài)交通場景下(如城市密集路段)可能受到影響,因為這些場景包含大量動態(tài)物體及不確定因素。在應(yīng)對惡劣天氣、光線變化及不同國家的道路標(biāo)志差異時,BEV+Transformer的魯棒性仍需進(jìn)一步驗證和優(yōu)化,以保證系統(tǒng)能適應(yīng)多樣化的場景。

結(jié)語

BEV+Transformer架構(gòu)為自動駕駛領(lǐng)域帶來了新的技術(shù)突破。通過結(jié)合鳥瞰視角的全局信息和Transformer的自注意力機(jī)制,該架構(gòu)顯著提升了感知精度和決策支持能力。然而,要在實際道路場景中實現(xiàn)其廣泛應(yīng)用,還需克服計算資源、傳感器同步性等方面的挑戰(zhàn)。未來,隨著硬件技術(shù)的進(jìn)步和算法優(yōu)化,BEV+Transformer有望成為自動駕駛系統(tǒng)的重要組成部分,為完全自動駕駛奠定堅實的技術(shù)基礎(chǔ)。

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 自動駕駛
    +關(guān)注

    關(guān)注

    790

    文章

    14321

    瀏覽量

    170686
  • Transformer
    +關(guān)注

    關(guān)注

    0

    文章

    151

    瀏覽量

    6522
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    自動駕駛中常提的高精度地圖是?有何審查要求?

    不僅在空間分辨率和數(shù)據(jù)豐富度上有質(zhì)的飛躍,還在數(shù)據(jù)處理與安全管理方面提出了更嚴(yán)格的規(guī)范。那高精度地圖到底是?是否有什么具體需求? 高精度地圖,顧名思義,是種面向
    的頭像 發(fā)表于 07-03 19:29 ?135次閱讀
    <b class='flag-5'>自動駕駛</b>中常提的高精度地圖是<b class='flag-5'>個</b><b class='flag-5'>啥</b>?有何審查要求?

    自動駕駛中常提的世界模型是?

    種對外部環(huán)境進(jìn)行抽象和建模的技術(shù),讓自動駕駛系統(tǒng)在簡潔的內(nèi)部“縮影”里,對真實世界進(jìn)行描述與預(yù)測,從而為感知、決策和規(guī)劃等關(guān)鍵環(huán)節(jié)提供有力支持。 什么是世界模型? 我們不妨先把“世界模型”想象成
    的頭像 發(fā)表于 06-24 08:53 ?170次閱讀
    <b class='flag-5'>自動駕駛</b>中常提的世界模型是<b class='flag-5'>個</b><b class='flag-5'>啥</b>?

    自動駕駛中常提的HMI是?

    控”的過程中,人機(jī)交互界面擔(dān)負(fù)著承上啟下、溝通信息與建立信任的重任。此外,這領(lǐng)域也是可以給駕駛員和乘客帶來最直觀感知的項技術(shù),因此對于很多車企來說,這也是最值得深度研究的部分。那
    的頭像 發(fā)表于 06-22 13:21 ?1180次閱讀

    淺析4D-bev標(biāo)注技術(shù)在自動駕駛領(lǐng)域的重要性

    感知領(lǐng)域的項突破性創(chuàng)新,通過引入時間維度與全局視角,為自動駕駛系統(tǒng)提供了高精度、多模態(tài)的時空真值數(shù)據(jù),重塑了自動駕駛系統(tǒng)的開發(fā)范式。 4D-BEV標(biāo)注是什么? 4D-
    的頭像 發(fā)表于 06-12 16:10 ?376次閱讀

    自動駕駛中常提的“點云”是

    [首發(fā)于智駕最前沿微信公眾號]在自動駕駛系統(tǒng)中,點云技術(shù)作為三維空間感知的核心手段,為車輛提供了精確的距離和形狀信息,從而實現(xiàn)目標(biāo)檢測、環(huán)境建模、定位與地圖構(gòu)建等關(guān)鍵功能。那所謂的“點云”,到底是
    的頭像 發(fā)表于 05-21 09:04 ?311次閱讀
    <b class='flag-5'>自動駕駛</b>中常提的“點云”是<b class='flag-5'>個</b><b class='flag-5'>啥</b>?

    自動駕駛行業(yè)常提的高階智駕是

    的調(diào)整,也見證了這個行業(yè)的技術(shù)演進(jìn)?!案唠A智駕”作為現(xiàn)階段在各大車企發(fā)布會經(jīng)常提到的一個詞,也預(yù)示著自動駕駛行業(yè)正加速走入下半場。高階智駕不僅在功能上遠(yuǎn)超傳統(tǒng)的高級輔助駕駛系統(tǒng),更在核心技術(shù)、系統(tǒng)架構(gòu)以及整體安
    的頭像 發(fā)表于 04-18 12:24 ?388次閱讀
    <b class='flag-5'>自動駕駛</b>行業(yè)常提的高階智駕是<b class='flag-5'>個</b><b class='flag-5'>啥</b>?

    自動駕駛中常提的“NOA”是?

    近年來,自動駕駛技術(shù)發(fā)展迅速,業(yè)界不斷探索如何在復(fù)雜交通場景中實現(xiàn)真正的無人駕駛。城市NOA作為自動駕駛項前沿技術(shù),正成為各大廠商相互爭奪的關(guān)鍵技術(shù)。 何為NOA? NOA,全稱
    的頭像 發(fā)表于 04-09 09:03 ?794次閱讀
    <b class='flag-5'>自動駕駛</b>中常提的“NOA”是<b class='flag-5'>個</b><b class='flag-5'>啥</b>?

    自動駕駛大模型中常提的Token是?對自動駕駛有何影響?

    、多模態(tài)傳感器數(shù)據(jù)的實時處理與決策。在這過程中,大模型以其強(qiáng)大的特征提取、信息融合和預(yù)測能力為自動駕駛系統(tǒng)提供了有力支持。而在大模型的中,有“Token”的概念,有些人看到后或許
    的頭像 發(fā)表于 03-28 09:16 ?380次閱讀

    自動駕駛行業(yè)中的Tier1與Tier2是?有何區(qū)別?

    責(zé)任分工。那么,Tier1和Tier2到底是?兩者之間又有哪些具體區(qū)別? Tier1和Tier2的定義 在自動駕駛行業(yè)中,Tier1和Tier2分別是供應(yīng)鏈中的兩
    的頭像 發(fā)表于 03-16 10:50 ?788次閱讀

    為什么聊自動駕駛的越來越多,聊無人駕駛的越來越少?

    自動駕駛有什么區(qū)別?為什么現(xiàn)在一直都在聊自動駕駛,卻鮮少有企業(yè)提無人駕駛?今天智駕最前沿就圍繞這個話題和大家簡單聊聊。 自動駕駛和無人
    的頭像 發(fā)表于 02-23 10:52 ?563次閱讀
    為什么聊<b class='flag-5'>自動駕駛</b>的越來越多,聊無人<b class='flag-5'>駕駛</b>的越來越少?

    自動駕駛中常提的魯棒性是?

    隨著自動駕駛技術(shù)的快速發(fā)展,魯棒性(Robustness)成為評價自動駕駛系統(tǒng)的重要指標(biāo)之。很多小伙伴也會在自動駕駛相關(guān)的介紹中,對某些功能用魯棒性進(jìn)行描述。
    的頭像 發(fā)表于 01-02 16:32 ?7314次閱讀
    <b class='flag-5'>自動駕駛</b>中常提的魯棒性是<b class='flag-5'>個</b><b class='flag-5'>啥</b>?

    淺析基于自動駕駛的4D-bev標(biāo)注技術(shù)

    4D-bev標(biāo)注技術(shù)是指在3D空間中以時間作為第四維度進(jìn)行標(biāo)注的過程。4D-bev通常在地場景較為復(fù)雜的自動駕駛場景中使用,其可以通過精準(zhǔn)地跟蹤和記錄動態(tài)對象的運(yùn)動軌跡、姿勢變化以及
    的頭像 發(fā)表于 12-06 15:01 ?3518次閱讀
    淺析基于<b class='flag-5'>自動駕駛</b>的4D-<b class='flag-5'>bev</b>標(biāo)注技術(shù)

    自動駕駛中常提的SLAM到底是

    ?這兩問題。目前,自動駕駛技術(shù)主要依賴高精地圖和RTK(實時動態(tài)定位)系統(tǒng)完成高精度定位。然而,這種方法的實現(xiàn)成本高昂,需要依賴于完善的基礎(chǔ)設(shè)施,且在動態(tài)環(huán)境中適應(yīng)性不足。為此自動駕駛工程師提出了另
    的頭像 發(fā)表于 11-21 15:17 ?1639次閱讀
    <b class='flag-5'>自動駕駛</b>中常提的SLAM<b class='flag-5'>到底是</b><b class='flag-5'>個</b><b class='flag-5'>啥</b>?

    FPGA在自動駕駛領(lǐng)域有哪些優(yōu)勢?

    FPGA(Field-Programmable Gate Array,現(xiàn)場可編程門陣列)在自動駕駛領(lǐng)域具有顯著的優(yōu)勢,這些優(yōu)勢使得FPGA成為自動駕駛技術(shù)中不可或缺的部分。以下是FPGA在
    發(fā)表于 07-29 17:11

    FPGA在自動駕駛領(lǐng)域有哪些應(yīng)用?

    是FPGA在自動駕駛領(lǐng)域的主要應(yīng)用: 、感知算法加速 圖像處理:自動駕駛中需要通過攝像頭獲取并識別道路信息和行駛環(huán)境,這涉及到大量的圖像處理任務(wù)。FPGA在處理圖像上的運(yùn)算速度快,可并行性強(qiáng),且功耗
    發(fā)表于 07-29 17:09