一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

NeuralLift-360:將野外的2D照片提升為3D物體

3D視覺工坊 ? 來源:泡泡機器人SLAM ? 2023-04-16 10:02 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

摘要

虛擬現(xiàn)實和增強現(xiàn)實(XR)帶來了對3D內(nèi)容生成的不斷增長需求。然而,創(chuàng)建高質(zhì)量的3D內(nèi)容需要人類專家進行繁瑣的工作。在本文中,我們研究了將單個圖像提升為3D對象的具有挑戰(zhàn)性的任務(wù),并首次展示了能夠生成與給定參考圖像相對應(yīng)的具有360°視圖的可信3D對象。通過條件化參考圖像,我們的模型可以滿足從圖像合成物體新視角的永恒好奇心。我們提出了NeuralLift-360,一種新穎框架,利用深度感知神經(jīng)輻射場生成可信3D對象,并通過CLIP引導(dǎo)擴散先驗學(xué)習(xí)概率驅(qū)動3D提升,并通過比例不變深度排名損失減輕深度誤差。我們在真實和合成圖像上進行了全面實驗,在這些實驗中,NeuralLift-360優(yōu)于當前最先進方法。

主要貢獻

? 針對野外的單張圖片,我們展示了將其提升到3D的有前景的結(jié)果。我們使用NeRF作為有效的場景表示,并整合來自擴散模型的先驗知識。

? 我們提出了一種以CLIP為引導(dǎo)的采樣策略,有效地將擴散模型的先驗知識與參考圖像結(jié)合起來。

? 當參考圖像難以精確描述時,我們在保持其生成多樣內(nèi)容以指導(dǎo)NeRF訓(xùn)練的能力的同時,對單張圖像進行擴散模型的微調(diào)。

? 我們引入了一種使用排名信息的尺度不變深度監(jiān)督。這種設(shè)計減輕了對準確多視角一致深度估計的需求,并擴大了我們算法的應(yīng)用范圍。

主要方法

74b2a322-dbb6-11ed-bfe3-dac502259ad0.png

1.從單個2D圖像中生成3D點云:首先,使用一個預(yù)訓(xùn)練的2D圖像到3D點云模型來生成初始點云。然后,使用一個深度感知神經(jīng)輻射場來對點云進行細化和修正。具體地,該神經(jīng)輻射場將每個點的深度值作為輸入,并輸出一個向量場,該向量場將每個點移動到其正確的位置。

2.從3D點云中生成可渲染的3D網(wǎng)格:使用一個基于深度學(xué)習(xí)的方法來將點云轉(zhuǎn)換為可渲染的3D網(wǎng)格。具體地,該方法使用一個編碼器網(wǎng)絡(luò)將3D點云編碼為特征向量,并使用一個解碼器網(wǎng)絡(luò)將特征向量解碼為可渲染的3D網(wǎng)格。

3.從可渲染的3D網(wǎng)格中生成360°視圖:使用一個基于深度學(xué)習(xí)的方法來生成與給定參考圖像相對應(yīng)的具有360°視圖的可信3D對象。具體地,該方法使用一個編碼器網(wǎng)絡(luò)將參考圖像編碼為特征向量,并使用一個解碼器網(wǎng)絡(luò)將特征向量解碼為360°視圖。

4.使用CLIP引導(dǎo)擴散先驗學(xué)習(xí)概率驅(qū)動3D提升:使用一個基于擴散的方法來生成3D對象,并使用CLIP模型來指導(dǎo)擴散過程。具體地,該方法使用一個初始的3D對象,并通過多次迭代來擴散該對象。在每次迭代中,使用CLIP模型來計算當前3D對象與參考圖像之間的相似度,并將相似度作為概率分布來指導(dǎo)擴散過程。

5.使用比例不變深度排名損失減輕深度誤差:使用一個比例不變深度排名損失來訓(xùn)練模型,以減輕深度誤差。具體地,該損失函數(shù)將每個像素的深度值與其在圖像中的排名相關(guān)聯(lián),并使用比例不變的方式來計算損失。這種方法可以減輕深度誤差,并提高模型的性能。

主要結(jié)果

74d99612-dbb6-11ed-bfe3-dac502259ad0.png

74e515aa-dbb6-11ed-bfe3-dac502259ad0.png

74f6fe46-dbb6-11ed-bfe3-dac502259ad0.png

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 編碼器
    +關(guān)注

    關(guān)注

    45

    文章

    3799

    瀏覽量

    138042
  • 網(wǎng)格
    +關(guān)注

    關(guān)注

    0

    文章

    142

    瀏覽量

    16341
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5561

    瀏覽量

    122794

原文標題:NeuralLift-360:將野外的2D照片提升為3D物體

文章出處:【微信號:3D視覺工坊,微信公眾號:3D視覺工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    如何同時獲取2d圖像序列和相應(yīng)的3d點云?

    如何同時獲取2d圖像序列和相應(yīng)的3d點云?以上來自于谷歌翻譯以下為原文How to obtain the sequence of 2d image and corresponding 3d
    發(fā)表于 11-13 11:25

    請問怎么才能將AD中的3D封裝庫轉(zhuǎn)換為2D的封裝庫?

    請問怎么AD中的3D封裝庫轉(zhuǎn)換為2D的封裝庫
    發(fā)表于 06-05 00:35

    為什么3D2D模型不能相互轉(zhuǎn)換?

    AD17.1.5軟件,3D2D模型不能相互轉(zhuǎn)換,按3可以進入3D模型,按2不可以進入2D模型,
    發(fā)表于 09-20 05:35

    如何促使2D3D視覺檢測的性能成倍提升?

    本文介紹的三個應(yīng)用案例展示了業(yè)界上先進的機器視覺軟件和及其圖像預(yù)處理技術(shù)如何促使2D3D視覺檢測的性能成倍提升。
    發(fā)表于 02-22 06:56

    視覺處理,2d照片轉(zhuǎn)3d模型

    首先,太陽高度是恒定的。 照片每像素的亮度可求。我們只需要求出太陽與眼睛到物體的夾角就能求出3d模型。 最多就是各種物質(zhì)的反射率。 英偉達的oir芯片就是做汽車視覺的,大家去取取經(jīng)。 有時,2
    發(fā)表于 05-21 17:13

    2D3D視頻自動轉(zhuǎn)換系統(tǒng)

    研究和實現(xiàn)了一個基于OMAP3530的2D3D視頻自動轉(zhuǎn)換系統(tǒng),重點研究深度圖獲取和深度信息渲染等主要核心技術(shù)及其實現(xiàn)。該系統(tǒng)利用OMAP3530其特有的雙核結(jié)構(gòu),進行系統(tǒng)優(yōu)化:由其ARM處理器
    發(fā)表于 03-06 14:20 ?1次下載
    <b class='flag-5'>2D</b>到<b class='flag-5'>3D</b>視頻自動轉(zhuǎn)換系統(tǒng)

    適用于顯示屏的2D多點觸摸與3D手勢模塊

    本視頻展示結(jié)合多點觸摸與3D手勢模塊的Microchip顯示解決方案。支持2D/3D功能的顯示屏是Microchip基于GestIC?技術(shù)的最新解決方案。顯示屏上結(jié)合了
    的頭像 發(fā)表于 06-06 02:45 ?5454次閱讀

    如何把OpenGL中3D坐標轉(zhuǎn)換成2D坐標

    在OpenGL中,一切事物都在3D空間中,但我們的屏幕坐標確實2D像素數(shù)組,OpenGL大部分工作就是把3D坐標轉(zhuǎn)換成適應(yīng)屏幕的2D像素。3D
    的頭像 發(fā)表于 07-09 10:40 ?8868次閱讀

    3D 機器視覺為什么逐步取代 2D 識別技術(shù)?

    不難判斷,在此趨勢下,3D 機器視覺面臨較快的增長趨勢,3D 視覺未來逐步取代 2D 識別技術(shù),在許多“痛點型應(yīng)用場景”中大顯身手,發(fā)展
    的頭像 發(fā)表于 08-21 10:33 ?5406次閱讀

    阿里研發(fā)全新3D AI算法,2D圖片搜出3D模型

    AI技術(shù)的研究正在從2D走向更高難度的3D。12月3日,記者獲悉,阿里技術(shù)團隊研發(fā)了全新3D AI算法,可基于2D圖片精準搜索出相應(yīng)的
    的頭像 發(fā)表于 12-04 15:49 ?3910次閱讀

    3d人臉識別和2d人臉識別的區(qū)別

    首先是3d人臉識別和2d人臉識別圖像數(shù)據(jù)獲取不同。3D人臉識別是以3D攝像頭立體成像,而2D是以2D
    發(fā)表于 02-05 16:00 ?5.1w次閱讀

    探討一下2D3D拓撲絕緣體

    這樣的物理規(guī)范,具有很高的普適性,applicable 到所有維度空間。對二維 2D 拓撲絕緣體 (2D - TI) 和三維 3D 拓撲絕緣體 (3D - TI),其體 - 邊對應(yīng)性由
    的頭像 發(fā)表于 11-23 10:23 ?3414次閱讀

    2D/3D圖表和圖形添加到WindowsForms應(yīng)用程序中

    ? 2D/3D圖表和圖形添加到WindowsForms應(yīng)用程序中 包括您可能需要的所有功能,并以100%托管代碼編寫。很好地集成到儀表板和商業(yè)智能軟件中。由響應(yīng)迅速的支持團隊提供支持。 14種主要
    的頭像 發(fā)表于 06-15 11:45 ?4987次閱讀

    2D3D視覺技術(shù)的比較

    作為一個多年經(jīng)驗的機器視覺工程師,我詳細介紹2D3D視覺技術(shù)的不同特點、應(yīng)用場景以及它們能夠解決的問題。在這個領(lǐng)域內(nèi),2D3D視覺技術(shù)
    的頭像 發(fā)表于 12-21 09:19 ?1817次閱讀

    一文了解3D視覺和2D視覺的區(qū)別

    一文了解3D視覺和2D視覺的區(qū)別 3D視覺和2D視覺是兩種不同的視覺模式,其區(qū)別主要體現(xiàn)在立體感、深度感和逼真度上。本文詳細闡述這些區(qū)別,
    的頭像 發(fā)表于 12-25 11:15 ?4413次閱讀