一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

技術(shù)分享 |多模態(tài)自動(dòng)駕駛混合渲染HRMAD:將NeRF和3DGS進(jìn)行感知驗(yàn)證和端到端AD測(cè)試

康謀自動(dòng)駕駛 ? 2025-03-26 16:05 ? 次閱讀

基于3DGSNeRF三維重建技術(shù)在過去的一年中取得了快速的進(jìn)步,動(dòng)態(tài)模型也變得越來越普遍,然而這些模型僅限于處理原始軌跡域內(nèi)的對(duì)象。

HRMAD作為一種混合方案,將傳統(tǒng)的基于網(wǎng)格的動(dòng)態(tài)三維神經(jīng)重建和物理渲染優(yōu)勢(shì)結(jié)合,支持在任意位置部署網(wǎng)格動(dòng)態(tài)代理,自由調(diào)整環(huán)境條件,在多個(gè)相機(jī)視角下進(jìn)行自由切換,與傳統(tǒng)仿真方法相比有效減少了領(lǐng)域差距,同時(shí)保留了可控性。

一、方法描述

HRMAD提出的NeRF2GS雙模型訓(xùn)練范式顯著提升了合成質(zhì)量,尤其是道路和車道標(biāo)志,同時(shí)滿足交互式幀率。通過此塊級(jí)并行訓(xùn)練架構(gòu),可以處理超過10萬平方米場(chǎng)景重建,并同步傳輸出分割掩膜/法線圖/深度圖。通過物理光柵化/光線追蹤渲染后端,HRMAD支持多個(gè)相機(jī)模型、LiDAR和Radar的實(shí)時(shí)多模態(tài)輸出。如圖1所示的模型架構(gòu)。

wKgZO2fjtACAVc-9AAJArQu3yag894.png

圖1

具體而言,HRMAD基于RGB相機(jī)、GNSS和LiDAR的同步數(shù)據(jù)進(jìn)行模型訓(xùn)練。該方案結(jié)合了NeRF優(yōu)秀的泛化能力3DGS實(shí)時(shí)的渲染速度,通過T-S結(jié)構(gòu),將NeRF生成的深度、法線和外觀監(jiān)督信息傳遞給3DGS模型,并通過正則化將LiDAR深度數(shù)據(jù)引入NeRF,從而實(shí)現(xiàn)更準(zhǔn)確的幾何結(jié)構(gòu)建模。

傳統(tǒng)基于透視投影的渲染方法通常依賴于特定的投影模型,為了在3DGS場(chǎng)景中適配任意傳感器,HRMAD提出了一種新的渲染算法架構(gòu),如下圖2所示。

wKgZPGfjtAiAUUakAAH7oGXAsdY592.png

圖2

該架構(gòu)基于共享代碼庫(kù)實(shí)現(xiàn)了光柵化和光線追蹤渲染,用于計(jì)算高斯沿射線的貢獻(xiàn)。這樣不僅能夠在三維重建場(chǎng)景中支持任意相機(jī)畸變模型,還能夠減輕LiDAR仿真中偽影的產(chǎn)生。圖3展示了在aiSim中采用HRMAD渲染場(chǎng)景并配置LiDAR后,點(diǎn)云的可視化效果。

wKgZO2fjtCiAWrCUAEWmYVTeQDM891.png

圖3

圖4表明HRMAD在極端視角下RGB、深度、法線和分割(基于Mask2Former)模態(tài)下的幾何細(xì)節(jié)和表面特性,重建面積約為165000平方米(ZalaZone測(cè)試場(chǎng),此重建場(chǎng)景將于aiSim5.7版本進(jìn)行發(fā)布)。

wKgZO2fjtDKAdJd-AFAkBec7atg433.png

圖4

二、下游任務(wù)驗(yàn)證

1、重建質(zhì)量驗(yàn)證

由于HRMAD采用的是基于雙邊網(wǎng)格的色彩校正方法,傳統(tǒng)的PSNR指標(biāo)不再適用,而SSIM和LPIPS指標(biāo)對(duì)結(jié)果相似性更為敏感,但從結(jié)果上看,這兩個(gè)指標(biāo)仍然受到ISP解耦導(dǎo)致的RAW與重建圖像之間色彩失配的影響。這一影響體現(xiàn)在了評(píng)估結(jié)果中,如表1,表中對(duì)比了原始3DGS和TCLC-GS在6個(gè)Waymo場(chǎng)景上的指標(biāo)表現(xiàn)。

表1

wKgZO2fjtEmATNO-AABgMJDQqsw635.png

2、語義分割驗(yàn)證

在語義分割上分別從三個(gè)角度評(píng)估模型性能,首先通過統(tǒng)計(jì)所有像素中語義分類一致的比例,反映全局重建一致性。
通過Mask2Former獲取真實(shí)圖像上計(jì)算的分割Mask,并與HRMAD-NeRF(Teacher)和HRMAD-NeRF(Student)渲染得到的分割Mask進(jìn)行比較,驗(yàn)證重建的準(zhǔn)確性。同時(shí)為了降低道路、天空等易分割區(qū)域?qū)φw結(jié)果的偏差影響,針對(duì)"Car"進(jìn)行單獨(dú)IoU計(jì)算。

為確保驗(yàn)證過程的公平性,真實(shí)圖像被重投影至與渲染過程一致的無畸變針孔相機(jī)參數(shù)空間,當(dāng)重建結(jié)果正確標(biāo)注了遠(yuǎn)距離或被遮擋物體,而Mask2Former因輸入信息有限導(dǎo)致誤判時(shí),此類誤差會(huì)被計(jì)入評(píng)估指標(biāo)。同時(shí)在夜間拍攝場(chǎng)景和相機(jī)直對(duì)太陽的場(chǎng)景中(如場(chǎng)景11037651和14663356),掩膜一致性顯著下降。結(jié)果如表2所示。

表2

wKgZO2fjtFmABJSUAABzfPAdKYY331.png

其次非常規(guī)視角下進(jìn)行模型渲染,并基于Mask2former生成的Mask與模型預(yù)測(cè)Mask進(jìn)行比較。此渲染視角沿自車軌跡生成,并在[-1,3]米范圍內(nèi)平移前視相機(jī)仿真模型。表3展示了針對(duì)道路表面信息和車輛的重建性能。其中Car類型的重建性能相對(duì)較低,這是由于Mask2Frame無法檢測(cè)遠(yuǎn)處或被遮擋的物體,從而擴(kuò)大了差異。圖5顯了示相關(guān)結(jié)果,綠色為匹配區(qū)域,藍(lán)色和橙色分別表示模型預(yù)測(cè)Mask和Mask2Former的Mask輸出。

表3

wKgZPGfjtGSAYGmbAAA5KN6E_1k441.pngwKgZO2fjtG6AR7rEAAKWAWexBec348.png

圖5

最后在極端渲染視角下(高5m,橫向偏移2m,向下偏轉(zhuǎn)25°),針對(duì)車道線和路沿語義分割結(jié)果進(jìn)行了定性評(píng)估,如圖6所示。

wKgZPGfjtHmAJVHdAAJj0qwLO-E740.png

圖6

3、3D目標(biāo)檢測(cè)驗(yàn)證

為了驗(yàn)證HRMAD在3D目標(biāo)檢測(cè)上的一致性,采用在Waymo Open數(shù)據(jù)集訓(xùn)練中公開的DEVIANT 3D目標(biāo)檢測(cè)模型,進(jìn)行定量和定性實(shí)驗(yàn)。

定量實(shí)驗(yàn)中,在Waymo-13469905891836363794片段中從[0,3]橫向偏移視角下進(jìn)行驗(yàn)證,并通過平移變換后的3DBBox定量計(jì)算。定性實(shí)驗(yàn)選取三個(gè)駕駛片段進(jìn)行靜態(tài)環(huán)境渲染,并基于網(wǎng)格渲染添加動(dòng)態(tài)車輛,主要用于評(píng)估仿真生成的車輛是否引入了領(lǐng)域差距

表4基于Waymo指標(biāo)進(jìn)行驗(yàn)證,Original為原始圖像。特別在近距離下,HRMAD的表現(xiàn)性能要優(yōu)于原始圖像,這是由于原始圖像中假陽FP數(shù)量更高。在非常規(guī)視角渲染下,觀察到的差異主要是橫向偏移視角下目標(biāo)截?cái)?/strong>的數(shù)量增加,但整體檢測(cè)結(jié)果在很大程度上保持一致。

表4

wKgZPGfjtIWAA4nYAACFoizgyAY087.png

圖7為DEVIANT模型在HRMAD渲染W(wǎng)aymo場(chǎng)景中的表現(xiàn)。

wKgZPGfjtJOAU-2EAGi_9OpWgC8339.png

圖7

三、結(jié)語

雖然HRMAD渲染方法旨在最大程度減少區(qū)塊邊界的不連續(xù)性,但仍不可避免地會(huì)產(chǎn)生可見的偽影,特別是在天空和遠(yuǎn)距離目標(biāo)區(qū)域中。比如天空的RGB重建效果良好,但在自動(dòng)駕駛仿真測(cè)試場(chǎng)景中,在非常規(guī)視角下仍然會(huì)導(dǎo)致偽影和結(jié)構(gòu)痕跡。

在下游任務(wù)中,HRMAD針對(duì)自動(dòng)駕駛場(chǎng)景的評(píng)估結(jié)果已非常接近真實(shí)數(shù)據(jù),但由于樣本有限,仍需要更大規(guī)模的數(shù)據(jù)集進(jìn)行進(jìn)一步驗(yàn)證。未來的研究也會(huì)致力于進(jìn)一步縮小重建場(chǎng)景和真實(shí)數(shù)據(jù)之間的領(lǐng)域差距,具體來說,可以通過探索層次化高斯?jié)姙R來減少區(qū)塊偽影,并利用生成的法線信息改進(jìn)LiDAR強(qiáng)度模擬,來更好地反應(yīng)點(diǎn)云數(shù)據(jù)的方向敏感強(qiáng)度。

目前,HRMAD生成場(chǎng)景已集成在aiSim中,可在不同傳感器模型配置方案下,實(shí)現(xiàn)端到端仿真測(cè)試交互式驗(yàn)證和測(cè)試。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 端到端測(cè)試
    +關(guān)注

    關(guān)注

    0

    文章

    4

    瀏覽量

    5775
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4682

    瀏覽量

    94342
  • 仿真
    +關(guān)注

    關(guān)注

    51

    文章

    4212

    瀏覽量

    135056
  • 渲染
    +關(guān)注

    關(guān)注

    0

    文章

    75

    瀏覽量

    11087
  • 場(chǎng)景
    +關(guān)注

    關(guān)注

    1

    文章

    9

    瀏覽量

    7716
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    康謀分享 | 3DGS:革新自動(dòng)駕駛仿真場(chǎng)景重建的關(guān)鍵技術(shù)

    3DGS技術(shù)自動(dòng)駕駛仿真場(chǎng)景重建帶來突破,通過3D高斯點(diǎn)精確表達(dá)復(fù)雜場(chǎng)景的幾何和光照特性,顯著提升渲染速度與圖像質(zhì)量??抵\aiSim平臺(tái)結(jié)
    的頭像 發(fā)表于 03-05 09:45 ?2925次閱讀
    康謀分享 | <b class='flag-5'>3DGS</b>:革新<b class='flag-5'>自動(dòng)駕駛</b>仿真場(chǎng)景重建的關(guān)鍵<b class='flag-5'>技術(shù)</b>

    未來已來,傳感器融合感知自動(dòng)駕駛破局的關(guān)鍵

    技術(shù) ,攝像頭和雷達(dá)等傳感器的探測(cè)數(shù)據(jù) 在前端(數(shù)據(jù)獲取時(shí))交互驗(yàn)證,讓自動(dòng)駕駛系統(tǒng)能感知
    發(fā)表于 04-11 10:26

    自動(dòng)駕駛的到來

      傳統(tǒng)汽車廠商更趨向于通過技術(shù)的不斷積累,場(chǎng)景的不斷豐富,逐步從輔助駕駛過渡到半自動(dòng)駕駛,進(jìn)而在將來最終實(shí)現(xiàn)無人駕駛;某些高科技公司則希望通過各種外部傳感器實(shí)時(shí)采集海量數(shù)據(jù),處理器經(jīng)
    發(fā)表于 06-08 15:25

    即插即用的自動(dòng)駕駛LiDAR感知算法盒子 RS-Box

    ,即可快速、無縫地激光雷達(dá)感知模塊嵌入自己的無人駕駛方案中,真正實(shí)現(xiàn)“一鍵獲得自動(dòng)駕駛激光雷達(dá)環(huán)境
    發(fā)表于 12-15 14:20

    如何讓自動(dòng)駕駛更加安全?

    了全球范圍對(duì)自動(dòng)駕駛安全性的議論:如何讓自動(dòng)駕駛更加安全?真正上路前還要做哪些準(zhǔn)備?智能汽車成為全球汽車產(chǎn)業(yè)發(fā)展戰(zhàn)略方向參與測(cè)試的企業(yè)通過道路測(cè)試
    發(fā)表于 05-13 00:26

    網(wǎng)聯(lián)化自動(dòng)駕駛的含義及發(fā)展方向

    3GPP R16 5G-V2X在自動(dòng)駕駛業(yè)務(wù)方面帶來的技術(shù)優(yōu)化,并對(duì)現(xiàn)階段通信技術(shù)中存在的問題進(jìn)行了分析和展望。與此同時(shí),闡述了通信
    發(fā)表于 01-12 15:42

    自動(dòng)駕駛技術(shù)的實(shí)現(xiàn)

    的帶寬有了更高的要求。從而使用以太網(wǎng)技術(shù)及中央域控制(Domain)和區(qū)域控制(Zonal)架構(gòu)是下一代車載網(wǎng)絡(luò)的發(fā)展方向。然而對(duì)于自動(dòng)駕駛技術(shù)的實(shí)現(xiàn),涉及
    發(fā)表于 09-03 08:31

    實(shí)現(xiàn)自動(dòng)駕駛,唯有?

    ,去年行業(yè)主流方案還是輕高精地圖城區(qū)智駕,今年大家的目標(biāo)都瞄到了(End-to-End, E2E)。
    的頭像 發(fā)表于 08-12 09:14 ?1182次閱讀
    實(shí)現(xiàn)<b class='flag-5'>自動(dòng)駕駛</b>,唯有<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>?

    Mobileye自動(dòng)駕駛解決方案的深度解析

    強(qiáng)大的技術(shù)優(yōu)勢(shì)。 Mobileye的解決方案概述 1.1 什么是
    的頭像 發(fā)表于 10-17 09:35 ?707次閱讀
    Mobileye<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b><b class='flag-5'>自動(dòng)駕駛</b>解決方案的深度解析

    Waymo利用谷歌Gemini大模型,研發(fā)端自動(dòng)駕駛系統(tǒng)

    邁新步,為其機(jī)器人出租車業(yè)務(wù)引入了一種基于谷歌模態(tài)大語言模型(MLLM)“Gemini”的全新訓(xùn)練模型——“
    的頭像 發(fā)表于 10-31 16:55 ?1466次閱讀

    連接視覺語言大模型與自動(dòng)駕駛

    自動(dòng)駕駛在大規(guī)模駕駛數(shù)據(jù)上訓(xùn)練,展現(xiàn)出很強(qiáng)的決策規(guī)劃能力,但是面對(duì)復(fù)雜罕見的駕駛場(chǎng)景,依然
    的頭像 發(fā)表于 11-07 15:15 ?559次閱讀
    連接視覺語言大模型與<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b><b class='flag-5'>自動(dòng)駕駛</b>

    自動(dòng)駕駛技術(shù)研究與分析

    編者語:「智駕最前沿」微信公眾號(hào)后臺(tái)回復(fù):C-0450,獲取本文參考報(bào)告:《自動(dòng)駕駛行業(yè)研究報(bào)告》pdf下載方式。 自動(dòng)駕駛進(jìn)入202
    的頭像 發(fā)表于 12-19 13:07 ?672次閱讀

    DiffusionDrive首次在自動(dòng)駕駛中引入擴(kuò)散模型

    ? ? 近年來,自動(dòng)駕駛成為研究熱點(diǎn),其核心在于從傳感器數(shù)據(jù)直接學(xué)習(xí)駕駛決策。然而,駕駛
    的頭像 發(fā)表于 03-08 13:59 ?479次閱讀
    DiffusionDrive首次在<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b><b class='flag-5'>自動(dòng)駕駛</b>中引入擴(kuò)散模型

    動(dòng)量感知規(guī)劃的自動(dòng)駕駛框架MomAD解析

    自動(dòng)駕駛框架實(shí)現(xiàn)了感知與規(guī)劃的無縫集成,但通常依賴于一次性軌跡預(yù)測(cè),這可能導(dǎo)致控制不穩(wěn)定,并且對(duì)單頓
    的頭像 發(fā)表于 03-18 09:31 ?639次閱讀
    動(dòng)量<b class='flag-5'>感知</b>規(guī)劃的<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b><b class='flag-5'>自動(dòng)駕駛</b>框架MomAD解析

    自動(dòng)駕駛模態(tài)軌跡生成方法GoalFlow解析

    自動(dòng)駕駛軌跡規(guī)劃往往采用直接回歸軌跡的方法,這種方式雖在測(cè)試中能取得不錯(cuò)的性能,可直接輸出當(dāng)前場(chǎng)景下最有可能的軌跡或控制,但它難以對(duì)自動(dòng)駕駛場(chǎng)景中常見的
    的頭像 發(fā)表于 03-18 17:59 ?323次閱讀
    <b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b><b class='flag-5'>自動(dòng)駕駛</b><b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>軌跡生成方法GoalFlow解析