一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于神經(jīng)輻射場(chǎng)的自監(jiān)督多相機(jī)占用預(yù)測(cè)

3D視覺工坊 ? 來源:3DCV ? 2024-01-02 14:53 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

1、筆者導(dǎo)讀

我們提出了一種名為OccNeRF的方法,用于自監(jiān)督多相機(jī)3D占用預(yù)測(cè)。該方法通過參數(shù)化重建的占用場(chǎng)來表示無限空間,并通過神經(jīng)渲染將占用場(chǎng)轉(zhuǎn)換為多相機(jī)深度圖。為了提供幾何和語義監(jiān)督,該方法利用多幀圖像之間的光度一致性進(jìn)行監(jiān)督。此外,為了語義占用預(yù)測(cè),該方法還設(shè)計(jì)了幾種策略來處理預(yù)訓(xùn)練的開放詞匯模型。

2、解決了什么?

本研究提出了一種自監(jiān)督的多攝相機(jī)3D占據(jù)預(yù)測(cè)方法,名為OccNeRF。該方法旨在解決無界場(chǎng)景的建模問題。

3、方法

主要包括以下幾個(gè)方面:

參數(shù)化占用場(chǎng)景表示

使用神經(jīng)輻射場(chǎng)(Neural Radiance Fields,NeRF)來表示占用場(chǎng)景。

引入?yún)?shù)化坐標(biāo)系,將無界的場(chǎng)景表示為有界的占用場(chǎng)景。

使用參數(shù)化坐標(biāo)系中的體素來表示占用場(chǎng)景的內(nèi)部和外部區(qū)域。

使用占用場(chǎng)景的體素表示來訓(xùn)練網(wǎng)絡(luò)。

多攝像頭特征聚合

對(duì)于每個(gè)攝像頭,將其對(duì)應(yīng)的圖像特征投影到參數(shù)化坐標(biāo)系中的體素上。

使用雙線性插值將投影后的特征聚合為體素特征。

使用三維卷積網(wǎng)絡(luò)提取特征并預(yù)測(cè)最終的占用輸出。

多幀深度估計(jì)

使用體素渲染技術(shù)將占用場(chǎng)景投影到多攝像頭的深度圖上。

通過沿著攝像頭中心到像素的射線采樣一系列點(diǎn),計(jì)算對(duì)應(yīng)像素的深度值。

使用渲染權(quán)重代替密度來適應(yīng)占用場(chǎng)景的表示。

使用多幀光度損失來訓(xùn)練深度估計(jì)模型。

開放詞匯語義監(jiān)督

使用多攝像頭圖像的二維語義標(biāo)簽提供像素級(jí)的語義監(jiān)督。

通過將預(yù)訓(xùn)練的開放詞匯模型的輸出與圖像特征進(jìn)行對(duì)齊,生成二維語義標(biāo)簽。

使用二維語義標(biāo)簽來訓(xùn)練網(wǎng)絡(luò),提高幾何一致性和體素之間的空間關(guān)系的捕捉能力。

4、損失函數(shù)

研究所涉及的損失函數(shù)有以下幾種:

渲染損失:用于訓(xùn)練神經(jīng)輻射場(chǎng)(Neural Radiance Fields,NeRF)模型的監(jiān)督信號(hào)。通過計(jì)算渲染的像素顏色與真實(shí)像素顏色之間的差異來衡量模型的性能。

時(shí)序光度損失:用于多幀深度估計(jì)的監(jiān)督信號(hào)。通過將相鄰幀投影到當(dāng)前幀,并計(jì)算投影圖像與原始圖像之間的重構(gòu)誤差來訓(xùn)練模型。

語義損失:用于語義三維占據(jù)預(yù)測(cè)的監(jiān)督信號(hào)。通過提供多相機(jī)圖像的二維語義標(biāo)簽,幫助網(wǎng)絡(luò)捕捉幾何一致性和體素之間的空間關(guān)系。

5、實(shí)驗(yàn)結(jié)果

本研究采用了自監(jiān)督的多相機(jī)占據(jù)預(yù)測(cè)方法,稱為OccNeRF。我們的實(shí)驗(yàn)方法和結(jié)果如下:

數(shù)據(jù)集:本研究在nuScenes數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),該數(shù)據(jù)集包含600個(gè)場(chǎng)景用于訓(xùn)練,150個(gè)場(chǎng)景用于驗(yàn)證,150個(gè)場(chǎng)景用于測(cè)試。數(shù)據(jù)集包含大約40000幀圖像和17個(gè)類別。

自監(jiān)督深度估計(jì):首先,將LiDAR點(diǎn)云投影到每個(gè)視角上,得到深度圖作為自監(jiān)督深度估計(jì)的輸入。然后,使用神經(jīng)輻射場(chǎng)(Neural Radiance Fields,NeRF)方法進(jìn)行深度估計(jì)。NeRF使用渲染方程將3D場(chǎng)景中的顏色和深度信息映射到2D圖像中。本研究在NeRF的基礎(chǔ)上進(jìn)行改進(jìn),引入了時(shí)間光度約束和多幀渲染,以提高深度估計(jì)的準(zhǔn)確性。

占據(jù)預(yù)測(cè):為了預(yù)測(cè)場(chǎng)景中的占據(jù)情況,本研究使用了Grounding DINO模型和Grounded-SAM模型。首先,使用Grounding DINO模型生成檢測(cè)邊界框和對(duì)應(yīng)的logits和短語。然后,將這些信息輸入到Grounded-SAM模型中,生成精確的語義分割二值掩碼。最后,使用體素渲染技術(shù)將語義標(biāo)簽投影到圖像空間中,得到占據(jù)預(yù)測(cè)結(jié)果。

實(shí)驗(yàn)評(píng)估:本研究使用了多個(gè)評(píng)估指標(biāo)來評(píng)估深度估計(jì)和占據(jù)預(yù)測(cè)的性能,包括絕對(duì)相對(duì)誤差(Abs Rel)、平方相對(duì)誤差(Sq Rel)、均方根誤差(RMSE)等。同時(shí),與其他自監(jiān)督和有監(jiān)督方法進(jìn)行了比較,以驗(yàn)證OccNeRF方法的優(yōu)越性。

69db56ea-a72d-11ee-8b88-92fbcf53809c.png

69e2e770-a72d-11ee-8b88-92fbcf53809c.png

5、總結(jié)

本研究通過自監(jiān)督深度估計(jì)和占據(jù)預(yù)測(cè)方法,實(shí)現(xiàn)了對(duì)多攝像頭場(chǎng)景中的占據(jù)情況的準(zhǔn)確預(yù)測(cè)。實(shí)驗(yàn)結(jié)果表明,OccNeRF方法在深度估計(jì)和占據(jù)預(yù)測(cè)方面取得了較好的性能。

審核編輯:黃飛

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 攝像頭
    +關(guān)注

    關(guān)注

    61

    文章

    4982

    瀏覽量

    98427
  • 相機(jī)圖像
    +關(guān)注

    關(guān)注

    0

    文章

    7

    瀏覽量

    6127
  • LIDAR
    +關(guān)注

    關(guān)注

    10

    文章

    349

    瀏覽量

    30379

原文標(biāo)題:清華最新發(fā)布!OccNeRF:基于神經(jīng)輻射場(chǎng)的自監(jiān)督多相機(jī)占用預(yù)測(cè)

文章出處:【微信號(hào):3D視覺工坊,微信公眾號(hào):3D視覺工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    有提供編寫神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)程序服務(wù)的嗎?

    有提供編寫神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)程序服務(wù)的嗎?
    發(fā)表于 12-10 13:50

    關(guān)于BP神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)模型的確定??!

    請(qǐng)問用matlab編程進(jìn)行BP神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)時(shí),訓(xùn)練結(jié)果很多都是合適的,但如何確定最合適的?且如何用最合適的BP模型進(jìn)行外推預(yù)測(cè)?
    發(fā)表于 02-08 14:23

    如何用卷積神經(jīng)網(wǎng)絡(luò)方法去解決機(jī)器監(jiān)督學(xué)習(xí)下面的分類問題?

    人工智能下面有哪些機(jī)器學(xué)習(xí)分支?如何用卷積神經(jīng)網(wǎng)絡(luò)(CNN)方法去解決機(jī)器學(xué)習(xí)監(jiān)督學(xué)習(xí)下面的分類問題?
    發(fā)表于 06-16 08:09

    基于小波包_神經(jīng)網(wǎng)絡(luò)的太陽(yáng)逐時(shí)輻射預(yù)測(cè)_陳杰

    基于小波包_神經(jīng)網(wǎng)絡(luò)的太陽(yáng)逐時(shí)輻射預(yù)測(cè)_陳杰
    發(fā)表于 12-31 14:45 ?1次下載

    多相機(jī)視域下行人目標(biāo)匹配

    針對(duì)多相機(jī)視域下行人目標(biāo)匹配正確率不高的問題,基于無監(jiān)督顯著性學(xué)習(xí)和局部特征匹配提出一種全局最優(yōu)匹配模型。將不同視域間的目標(biāo)匹配進(jìn)行關(guān)聯(lián),每對(duì)相機(jī)的直接匹配受制于其間接匹配的監(jiān)督,同時(shí)
    發(fā)表于 03-07 16:12 ?0次下載

    監(jiān)督學(xué)習(xí)與Transformer相關(guān)論文

    學(xué)習(xí)、Transformer、圖神經(jīng)網(wǎng)絡(luò)、自然語言處理、模型壓縮等熱點(diǎn)領(lǐng)域,將分多期為大家?guī)硐盗姓撐慕庾x。 本期的關(guān)注焦點(diǎn)是監(jiān)督學(xué)習(xí)與
    的頭像 發(fā)表于 11-02 15:50 ?2918次閱讀
    <b class='flag-5'>自</b><b class='flag-5'>監(jiān)督</b>學(xué)習(xí)與Transformer相關(guān)論文

    基于主動(dòng)學(xué)習(xí)的半監(jiān)督神經(jīng)網(wǎng)絡(luò)模型來對(duì)分子性質(zhì)進(jìn)行預(yù)測(cè)方法

    總體來講,本文使用教師模型和學(xué)生模型來迭代訓(xùn)練。每個(gè)模型都是一個(gè)圖神經(jīng)網(wǎng)絡(luò)。在教師模型中,使用半監(jiān)督的方式來獲得分子圖的一般表示。我們聯(lián)合訓(xùn)練分子的無監(jiān)督表示和基于屬性預(yù)測(cè)的embed
    的頭像 發(fā)表于 11-24 09:59 ?4448次閱讀

    采用監(jiān)督CNN進(jìn)行單圖像深度估計(jì)的方法

    為了提高利用深度神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)單圖像深度信息的精確度,提出了一種采用監(jiān)督卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行單圖像深度估計(jì)的方法。首先,該方法通過在編解碼結(jié)構(gòu)中
    發(fā)表于 04-27 16:06 ?13次下載
    采用<b class='flag-5'>自</b><b class='flag-5'>監(jiān)督</b>CNN進(jìn)行單圖像深度估計(jì)的方法

    基于多相機(jī)捕捉系統(tǒng)下的通用物體運(yùn)動(dòng)捕捉方法

    基于多相機(jī)捕捉系統(tǒng)下的通用物體運(yùn)動(dòng)捕捉方法
    發(fā)表于 06-25 10:34 ?29次下載

    介紹一種神經(jīng)場(chǎng)成對(duì)配準(zhǔn)的技術(shù)NeRF2NeRF

    我們介紹了一種神經(jīng)場(chǎng)成對(duì)配準(zhǔn)的技術(shù),它擴(kuò)展了基于優(yōu)化的經(jīng)典局部配準(zhǔn)(即ICP)以操作神經(jīng)輻射場(chǎng)(NeRF)。
    的頭像 發(fā)表于 02-20 10:29 ?923次閱讀

    NeRF2NeRF神經(jīng)輻射場(chǎng)的配對(duì)配準(zhǔn)介紹

    我們介紹了一種神經(jīng)場(chǎng)成對(duì)配準(zhǔn)的技術(shù),它擴(kuò)展了基于優(yōu)化的經(jīng)典局部配準(zhǔn)(即ICP)以操作神經(jīng)輻射場(chǎng)(NeRF)。
    的頭像 發(fā)表于 03-31 16:49 ?1216次閱讀

    基于神經(jīng)輻射場(chǎng)(NeRFs)的自動(dòng)駕駛模擬器

    如今,自動(dòng)駕駛汽車可以在普通情況下平穩(wěn)駕駛,人們普遍認(rèn)為,真實(shí)的傳感器模擬將在通過模擬解決剩余的極端情況方面發(fā)揮關(guān)鍵作用。為此,我們提出了一種基于神經(jīng)輻射場(chǎng)(NeRFs)的自動(dòng)駕駛模擬器。
    發(fā)表于 08-01 14:46 ?1031次閱讀
    基于<b class='flag-5'>神經(jīng)</b><b class='flag-5'>輻射</b><b class='flag-5'>場(chǎng)</b>(NeRFs)的自動(dòng)駕駛模擬器

    SHERF:可泛化可驅(qū)動(dòng)人體神經(jīng)輻射場(chǎng)的新方法

    人體神經(jīng)輻射場(chǎng)的目標(biāo)是從 2D 人體圖片中恢復(fù)高質(zhì)量的 3D 數(shù)字人并加以驅(qū)動(dòng),從而避免耗費(fèi)大量人力物力去直接獲取 3D 人體幾何信息。這個(gè)方向的探索對(duì)于一系列應(yīng)用場(chǎng)景,比如虛擬現(xiàn)實(shí)和輔助現(xiàn)實(shí)場(chǎng)景,有著非常大潛在性的影響。
    的頭像 發(fā)表于 08-15 11:46 ?1086次閱讀
    SHERF:可泛化可驅(qū)動(dòng)人體<b class='flag-5'>神經(jīng)</b><b class='flag-5'>輻射</b><b class='flag-5'>場(chǎng)</b>的新方法

    WACV 2023 I從ScanNeRF到元宇宙:神經(jīng)輻射場(chǎng)的未來

    神經(jīng)輻射場(chǎng)(NeRF)通過將三維場(chǎng)景編碼成隱式表示,在視覺領(lǐng)域中廣泛應(yīng)用。通過學(xué)習(xí)多層感知機(jī)(MLP)來建立隱式映射,其中包括中間的MLP(pos)用于推斷密度和嵌入,淺層的MLP(rgb)用于
    的頭像 發(fā)表于 09-01 16:14 ?958次閱讀
    WACV 2023 I從ScanNeRF到元宇宙:<b class='flag-5'>神經(jīng)</b><b class='flag-5'>輻射</b><b class='flag-5'>場(chǎng)</b>的未來

    基于幾何分析的神經(jīng)輻射場(chǎng)編輯方法

    神經(jīng)輻射場(chǎng)作為近期一個(gè)廣受關(guān)注的隱式表征方法,能合成照片級(jí)真實(shí)的多視角圖像。但因?yàn)槠潆[式建模的性質(zhì),用戶難以直觀編輯神經(jīng)輻射
    的頭像 發(fā)表于 11-20 16:56 ?898次閱讀
    基于幾何分析的<b class='flag-5'>神經(jīng)</b><b class='flag-5'>輻射</b><b class='flag-5'>場(chǎng)</b>編輯方法