一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度預(yù)測模型推斷移動(dòng)中的人的場景深度

電子工程師 ? 來源:YXQ ? 2019-05-27 11:23 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

谷歌近日推出了在計(jì)算機(jī)視覺領(lǐng)域模擬重建人類視覺的新模型,與以往方法不同的是,新模型利用AI,通過普通Youtube視頻預(yù)測深度圖,可以在場景內(nèi)的攝像頭和人同時(shí)運(yùn)動(dòng)的復(fù)雜情況下生成自然視頻。

人類的視覺系統(tǒng)具有非凡的能力,可以從2D投影中理解3D世界。即使在包含多個(gè)移動(dòng)物體的復(fù)雜環(huán)境中,人也能夠?qū)ξ矬w的幾何形狀和深度的排序進(jìn)行可行的解釋。長期以來,計(jì)算機(jī)視覺領(lǐng)域都在研究如何通過2D圖像數(shù)據(jù)計(jì)算重建場景的幾何特征,來實(shí)現(xiàn)和人類類似的能力,但在許多情況下,仍然難以實(shí)現(xiàn)具備充分魯棒性的重建。

當(dāng)攝像頭和場景中的物體都在自由移動(dòng)時(shí),是實(shí)現(xiàn)重建的最困難的情況。這種情況混淆了基于三角測量的傳統(tǒng)3D重建算法,該算法假設(shè)可以同時(shí)從至少兩個(gè)不同的觀察點(diǎn)觀察到相同的對象。滿足這個(gè)假設(shè)需要一個(gè)多攝像頭陣列,或者單攝像頭移動(dòng),但場景目標(biāo)本身是靜止?fàn)顟B(tài)。因此,現(xiàn)有的大多數(shù)方法要么需要過濾掉移動(dòng)的目標(biāo)(將移動(dòng)目標(biāo)的深度固定為“零”),要么直接忽略移動(dòng)目標(biāo)(會(huì)導(dǎo)致深度值發(fā)生錯(cuò)誤)。

左圖:傳統(tǒng)的立體設(shè)置假設(shè)至少有兩個(gè)觀察點(diǎn)在同時(shí)捕捉場景。右圖:我們考慮攝像頭和拍攝對象都在移動(dòng)的情況。

我們通過基于深度學(xué)習(xí)的方法來解決這個(gè)基本問題,該方法可以從普通視頻中生成深度圖,場景中的攝像頭和主體目標(biāo)都可以自由移動(dòng)。模型從數(shù)據(jù)中學(xué)習(xí)人體姿勢和形狀的先驗(yàn)知識(shí),無需直接3D三角測量。盡管最近使用機(jī)器學(xué)習(xí)進(jìn)行深度預(yù)測逐漸興起,但這項(xiàng)工作是第一個(gè)針對同時(shí)在攝像頭和目標(biāo)都在運(yùn)動(dòng)的狀態(tài)下的基于學(xué)習(xí)的方法。

本研究中的觀察目標(biāo)是人類,人類是增強(qiáng)現(xiàn)實(shí)和3D視頻效果的有趣目標(biāo)。

我們的模型可以預(yù)測深度圖(右圖,離攝像頭越近,圖中越亮),場景中的人和攝像頭都在自由移動(dòng)。

訓(xùn)練數(shù)據(jù)

我們以監(jiān)督學(xué)習(xí)的方式訓(xùn)練深度預(yù)測模型,該模型需要通過移動(dòng)的攝像頭捕獲的自然場景視頻以及精確的深度圖。關(guān)鍵問題是從何處獲取此類數(shù)據(jù)。綜合生成數(shù)據(jù)需要對各種場景和自然人類行為進(jìn)行逼真的建模和渲染,這是很困難的任務(wù)。

此外,針對這樣的數(shù)據(jù)訓(xùn)練的模型可能難以推廣到真實(shí)場景中。另一種方法可能是用RGBD傳感器(如微軟的Kinect)記錄真實(shí)場景,但深度傳感器通常僅限于室內(nèi)環(huán)境,而且要面臨3D重建上的一系列問題。

我們利用現(xiàn)有的數(shù)據(jù)來進(jìn)行監(jiān)督學(xué)習(xí):即YouTube視頻,視頻中的人們通過自己定格在各種自然姿勢,模仿人體模特效果,而手持?jǐn)z像機(jī)則在現(xiàn)場記錄。

因?yàn)檎麄€(gè)場景是靜止的(只有攝像機(jī)在移動(dòng)),所以基于三角測量的方法是行得通的,可以獲得包括其中人物在內(nèi)的整個(gè)場景的精確深度圖。我們收集了大約2000個(gè)這樣的視頻,涵蓋了各種逼真的場景,場景中的人按照不同的分組配置自然分布。

人們在攝像頭在場景中移動(dòng)時(shí)模仿人體模特,我們將其作為訓(xùn)練數(shù)據(jù)。我們使用傳統(tǒng)的MVS算法來估計(jì)深度,并在深度預(yù)測模型的訓(xùn)練中將其用于監(jiān)督。

推斷移動(dòng)中的人的場景深度

Mannequin挑戰(zhàn)視頻對移動(dòng)中的攝像機(jī)和“定格”的人進(jìn)行深度監(jiān)控,但我們的目標(biāo)是利用移動(dòng)的攝像頭和移動(dòng)的人來處理視頻。我們需要構(gòu)建網(wǎng)絡(luò)輸入來彌補(bǔ)這一差距。

一種可能的方法是為視頻的每一幀都進(jìn)行深度圖推斷(也就是對模型的輸入相當(dāng)于單幀圖像)。雖然這種模型改進(jìn)了用于深度預(yù)測的最先進(jìn)的單幀方法,但是我們可以通過來自多幀的信息組合來進(jìn)一步改善結(jié)果。比如運(yùn)動(dòng)視差,即兩個(gè)不同視點(diǎn)之間的靜態(tài)物體的明顯的相對運(yùn)動(dòng),就對深度推斷提供了有力線索。為了充分利用這些信息,我們計(jì)算了視頻中每個(gè)輸入幀和另一幀之間的2D光流,用它表示兩幀之間的像素位移。

這些光流場取決于場景的深度和攝像頭的相對位置。但是,由于攝像頭位置是已知的,可以從流場中去除二者之間的依賴關(guān)系,由此生成初始深度圖。此初始深度僅對靜態(tài)場景區(qū)域有效。為了在測試時(shí)處理運(yùn)動(dòng)中的人,可以利用人工分割網(wǎng)絡(luò)來蓋住初始深度圖中的人類區(qū)域。這樣,我們網(wǎng)絡(luò)的完整輸入包括:RGB圖像、蓋住人類的區(qū)域,以及基于視差的遮蓋后的深度圖。

深度預(yù)測網(wǎng)絡(luò):模型的輸入包括RGB圖像(第t幀),人類區(qū)域的遮蓋和非人類區(qū)域的初始深度,根據(jù)輸入幀與另一個(gè)之間的運(yùn)動(dòng)視差(光流)計(jì)算視頻中的幀。模型輸出第t幀的完整深度圖。由MVS算法計(jì)算出的深度圖負(fù)責(zé)對訓(xùn)練過程的監(jiān)督。

該網(wǎng)絡(luò)的作用是“修復(fù)”人與場景的深度值,并在其他地方細(xì)化深度值。因?yàn)槿祟惖耐庑魏痛笮√卣鲙缀跻恢拢W(wǎng)絡(luò)可以通過觀察多個(gè)訓(xùn)練樣例,在模型內(nèi)部學(xué)習(xí)這些先驗(yàn)知識(shí)。經(jīng)過訓(xùn)練后,模型就可以處理任意攝像頭和人體同時(shí)運(yùn)動(dòng)的視頻。

來看一段介紹視頻:

以下是基于視頻的深度預(yù)測模型結(jié)果的一些示例,并與最近基于最新學(xué)習(xí)的方法做了比較。

上圖:基于學(xué)習(xí)的單眼深度預(yù)測方法。 下圖:基于學(xué)習(xí)的立體方法(DeMoN)和我們的估計(jì)深度圖的結(jié)果。

使用深度圖處理3D視頻效果

我們預(yù)測的深度圖可用于產(chǎn)生一系列3D感知視頻效

使用估計(jì)深度圖產(chǎn)生的散景效果

我們的深度圖也可用于其他方面的應(yīng)用,包括利用單眼視頻生成立體視頻,將合成CG對象插入場景,還可以在視頻的其他幀中顯示內(nèi)容的情況下進(jìn)行場景區(qū)域的填充。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6231

    瀏覽量

    108104
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5561

    瀏覽量

    122783

原文標(biāo)題:Google AI:機(jī)器學(xué)習(xí)預(yù)測場景深度圖,模擬人眼更進(jìn)一步

文章出處:【微信號(hào):smartman163,微信公眾號(hào):網(wǎng)易智能】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    存儲(chǔ)示波器的存儲(chǔ)深度對信號(hào)分析有什么影響?

    存儲(chǔ)深度(Memory Depth)是數(shù)字示波器的核心參數(shù)之一,它直接決定了示波器在單次采集過程能夠記錄的采樣點(diǎn)數(shù)量。存儲(chǔ)深度對信號(hào)分析的影響貫穿時(shí)域細(xì)節(jié)捕捉、頻域分析精度、觸發(fā)穩(wěn)定性等多個(gè)維度
    發(fā)表于 05-27 14:39

    摩爾線程與當(dāng)虹科技達(dá)成深度合作

    近日,摩爾線程與當(dāng)虹科技達(dá)成深度合作,基于國產(chǎn)GPU成功完成了與BlackEye多模態(tài)視聽大模型深度融合。雙方聯(lián)手打造專業(yè)級視聽“引擎”,并在超高清GPU算力場景
    的頭像 發(fā)表于 03-20 15:22 ?597次閱讀

    【AIBOX 應(yīng)用案例】單目深度估計(jì)

    ?Firefly所推出的NVIDIA系列的AIBOX可實(shí)現(xiàn)深度估計(jì),該技術(shù)是一種從單張或者多張圖像預(yù)測場景深度信息的技術(shù),廣泛應(yīng)用于計(jì)算機(jī)視覺領(lǐng)域,尤其是在三維重建、場景理解和環(huán)境感知
    的頭像 發(fā)表于 03-19 16:33 ?408次閱讀
    【AIBOX 應(yīng)用案例】單目<b class='flag-5'>深度</b>估計(jì)

    在OpenVINO?工具套件的深度學(xué)習(xí)工作臺(tái)中無法導(dǎo)出INT8模型怎么解決?

    無法在 OpenVINO? 工具套件的深度學(xué)習(xí) (DL) 工作臺(tái)中導(dǎo)出 INT8 模型
    發(fā)表于 03-06 07:54

    DLPDLCR3310EVM需要考慮投影儀在工作距離固定時(shí),景深有多大?

    需要考慮投影儀在工作距離固定時(shí),景深有多大?這決定投影儀能在深度方向所成的清晰像的區(qū)間。
    發(fā)表于 02-18 07:09

    設(shè)智控全面接入DeepSeek加速AI+設(shè)備資產(chǎn)管理全場景深度融合

    近日,設(shè)智控完成DeepSeek于ACCM3設(shè)備資產(chǎn)綜合管控服務(wù)內(nèi)的部署,并且即將推出AI+設(shè)備資產(chǎn)綜合管控的相關(guān)應(yīng)用場景,推動(dòng)設(shè)備資產(chǎn)管理從數(shù)字化向AI+數(shù)智化的演進(jìn)。通過人工智能與設(shè)備資產(chǎn)管理
    的頭像 發(fā)表于 02-14 09:43 ?694次閱讀
    <b class='flag-5'>中</b>設(shè)智控全面接入DeepSeek加速AI+設(shè)備資產(chǎn)管理全<b class='flag-5'>場景深度</b>融合

    百川智能發(fā)布全場景深度思考模型Baichuan-M1-preview

    近日,百川智能正式發(fā)布了國內(nèi)首個(gè)全場景深度思考模型——Baichuan-M1-preview。這一創(chuàng)新成果標(biāo)志著我國在人工智能領(lǐng)域取得了重要突破,特別是在語言、視覺和搜索三大領(lǐng)域的推理能力上實(shí)現(xiàn)了
    的頭像 發(fā)表于 02-05 13:51 ?604次閱讀

    百川智能發(fā)布全場景深度思考模型Baichuan-M1-preview

    1月24日,百川智能正式發(fā)布了全場景深度思考模型Baichuan-M1-preview。 Baichuan-M1-preview同時(shí)具備語言、視覺和搜索三大領(lǐng)域推理能力的模型。在數(shù)學(xué)、代碼等權(quán)威評測
    的頭像 發(fā)表于 01-24 14:40 ?1020次閱讀

    AI模型部署邊緣設(shè)備的奇妙之旅:目標(biāo)檢測模型

    準(zhǔn)確性。 類別不平衡問題:當(dāng)某些類別的樣本數(shù)遠(yuǎn)多于其他類別時(shí),分類器可能會(huì)偏向多數(shù)類別,導(dǎo)致少數(shù)類別的預(yù)測精度較低。 過擬合風(fēng)險(xiǎn):復(fù)雜的模型容易在訓(xùn)練數(shù)據(jù)上過擬合,即學(xué)到了訓(xùn)練數(shù)據(jù)的特定特征而不是一般化
    發(fā)表于 12-19 14:33

    NPU在深度學(xué)習(xí)的應(yīng)用

    設(shè)計(jì)的硬件加速器,它在深度學(xué)習(xí)的應(yīng)用日益廣泛。 1. NPU的基本概念 NPU是一種專門針對深度學(xué)習(xí)算法優(yōu)化的處理器,它與傳統(tǒng)的CPU和GPU有所不同。NPU通常具有高度并行的處理能力,能夠高效地執(zhí)行
    的頭像 發(fā)表于 11-14 15:17 ?1901次閱讀

    GPU深度學(xué)習(xí)應(yīng)用案例

    GPU在深度學(xué)習(xí)的應(yīng)用廣泛且重要,以下是一些GPU深度學(xué)習(xí)應(yīng)用案例: 一、圖像識(shí)別 圖像識(shí)別是深度學(xué)習(xí)的核心應(yīng)用領(lǐng)域之一,GPU在加速圖像識(shí)別模型
    的頭像 發(fā)表于 10-27 11:13 ?1342次閱讀

    FPGA加速深度學(xué)習(xí)模型的案例

    FPGA(現(xiàn)場可編程門陣列)加速深度學(xué)習(xí)模型是當(dāng)前硬件加速領(lǐng)域的一個(gè)熱門研究方向。以下是一些FPGA加速深度學(xué)習(xí)模型的案例: 一、基于FPGA的AlexNet卷積運(yùn)算加速 項(xiàng)目名稱
    的頭像 發(fā)表于 10-25 09:22 ?1220次閱讀

    AI大模型深度學(xué)習(xí)的關(guān)系

    AI大模型深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進(jìn),相輔相成。以下是對兩者關(guān)系的介紹: 一、深度學(xué)習(xí)是AI大模型的基礎(chǔ) 技術(shù)支撐 :深度
    的頭像 發(fā)表于 10-23 15:25 ?2877次閱讀

    FPGA做深度學(xué)習(xí)能走多遠(yuǎn)?

    支持不同的數(shù)據(jù)精度、量化和激活函數(shù)等。這種靈活性使其能夠適應(yīng)各種深度學(xué)習(xí)任務(wù),為不同的應(yīng)用場景提供定制化的解決方案。 ? 低功耗:FPGA 是可編程的,可以在設(shè)計(jì)僅使用所需的計(jì)算資源,從而避免不必要
    發(fā)表于 09-27 20:53

    深度學(xué)習(xí)模型有哪些應(yīng)用場景

    深度學(xué)習(xí)模型作為人工智能領(lǐng)域的重要分支,已經(jīng)在多個(gè)應(yīng)用場景展現(xiàn)出其巨大的潛力和價(jià)值。這些應(yīng)用不僅改變了我們的日常生活,還推動(dòng)了科技進(jìn)步和產(chǎn)業(yè)升級。以下將詳細(xì)探討
    的頭像 發(fā)表于 07-16 18:25 ?4079次閱讀