一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌推出了在計(jì)算機(jī)視覺領(lǐng)域模擬重建人類視覺的新模型

DPVg_AI_era ? 來源:lq ? 2019-05-25 09:16 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

谷歌近日推出了在計(jì)算機(jī)視覺領(lǐng)域模擬重建人類視覺的新模型,與以往方法不同的是,新模型利用AI,通過普通Youtube視頻預(yù)測深度圖,可以在場景內(nèi)的攝像頭和人同時(shí)運(yùn)動的復(fù)雜情況下生成自然視頻。

人類的視覺系統(tǒng)具有非凡的能力,可以從2D投影中理解3D世界。即使在包含多個(gè)移動物體的復(fù)雜環(huán)境中,人也能夠?qū)ξ矬w的幾何形狀和深度的排序進(jìn)行可行的解釋。長期以來,計(jì)算機(jī)視覺領(lǐng)域都在研究如何通過2D圖像數(shù)據(jù)計(jì)算重建場景的幾何特征,來實(shí)現(xiàn)和人類類似的能力,但在許多情況下,仍然難以實(shí)現(xiàn)具備充分魯棒性的重建。

當(dāng)攝像頭和場景中的物體都在自由移動時(shí),是實(shí)現(xiàn)重建的最困難的情況。這種情況混淆了基于三角測量的傳統(tǒng)3D重建算法,該算法假設(shè)可以同時(shí)從至少兩個(gè)不同的觀察點(diǎn)觀察到相同的對象。滿足這個(gè)假設(shè)需要一個(gè)多攝像頭陣列,或者單攝像頭移動,但場景目標(biāo)本身是靜止?fàn)顟B(tài)。因此,現(xiàn)有的大多數(shù)方法要么需要過濾掉移動的目標(biāo)(將移動目標(biāo)的深度固定為“零”),要么直接忽略移動目標(biāo)(會導(dǎo)致深度值發(fā)生錯(cuò)誤)。

左圖:傳統(tǒng)的立體設(shè)置假設(shè)至少有兩個(gè)觀察點(diǎn)在同時(shí)捕捉場景。右圖:我們考慮攝像頭和拍攝對象都在移動的情況。

我們通過基于深度學(xué)習(xí)的方法來解決這個(gè)基本問題,該方法可以從普通視頻中生成深度圖,場景中的攝像頭和主體目標(biāo)都可以自由移動。模型從數(shù)據(jù)中學(xué)習(xí)人體姿勢和形狀的先驗(yàn)知識,無需直接3D三角測量。盡管最近使用機(jī)器學(xué)習(xí)進(jìn)行深度預(yù)測逐漸興起,但這項(xiàng)工作是第一個(gè)針對同時(shí)在攝像頭和目標(biāo)都在運(yùn)動的狀態(tài)下的基于學(xué)習(xí)的方法。

本研究中的觀察目標(biāo)是人類,人類是增強(qiáng)現(xiàn)實(shí)和3D視頻效果的有趣目標(biāo)。

我們的模型可以預(yù)測深度圖(右圖,離攝像頭越近,圖中越亮),場景中的人和攝像頭都在自由移動。

訓(xùn)練數(shù)據(jù)

我們以監(jiān)督學(xué)習(xí)的方式訓(xùn)練深度預(yù)測模型,該模型需要通過移動的攝像頭捕獲的自然場景視頻以及精確的深度圖。關(guān)鍵問題是從何處獲取此類數(shù)據(jù)。綜合生成數(shù)據(jù)需要對各種場景和自然人類行為進(jìn)行逼真的建模和渲染,這是很困難的任務(wù)。

此外,針對這樣的數(shù)據(jù)訓(xùn)練的模型可能難以推廣到真實(shí)場景中。另一種方法可能是用RGBD傳感器(如微軟的Kinect)記錄真實(shí)場景,但深度傳感器通常僅限于室內(nèi)環(huán)境,而且要面臨3D重建上的一系列問題。

我們利用現(xiàn)有的數(shù)據(jù)來進(jìn)行監(jiān)督學(xué)習(xí):即YouTube視頻,視頻中的人們通過自己定格在各種自然姿勢,模仿人體模特效果,而手持?jǐn)z像機(jī)則在現(xiàn)場記錄。

因?yàn)檎麄€(gè)場景是靜止的(只有攝像機(jī)在移動),所以基于三角測量的方法是行得通的,可以獲得包括其中人物在內(nèi)的整個(gè)場景的精確深度圖。我們收集了大約2000個(gè)這樣的視頻,涵蓋了各種逼真的場景,場景中的人按照不同的分組配置自然分布。

人們在攝像頭在場景中移動時(shí)模仿人體模特,我們將其作為訓(xùn)練數(shù)據(jù)。我們使用傳統(tǒng)的MVS算法來估計(jì)深度,并在深度預(yù)測模型的訓(xùn)練中將其用于監(jiān)督。

推斷移動中的人的場景深度

Mannequin挑戰(zhàn)視頻對移動中的攝像機(jī)和“定格”的人進(jìn)行深度監(jiān)控,但我們的目標(biāo)是利用移動的攝像頭和移動的人來處理視頻。我們需要構(gòu)建網(wǎng)絡(luò)輸入來彌補(bǔ)這一差距。

一種可能的方法是為視頻的每一幀都進(jìn)行深度圖推斷(也就是對模型的輸入相當(dāng)于單幀圖像)。雖然這種模型改進(jìn)了用于深度預(yù)測的最先進(jìn)的單幀方法,但是我們可以通過來自多幀的信息組合來進(jìn)一步改善結(jié)果。比如運(yùn)動視差,即兩個(gè)不同視點(diǎn)之間的靜態(tài)物體的明顯的相對運(yùn)動,就對深度推斷提供了有力線索。為了充分利用這些信息,我們計(jì)算了視頻中每個(gè)輸入幀和另一幀之間的2D光流,用它表示兩幀之間的像素位移。

這些光流場取決于場景的深度和攝像頭的相對位置。但是,由于攝像頭位置是已知的,可以從流場中去除二者之間的依賴關(guān)系,由此生成初始深度圖。此初始深度僅對靜態(tài)場景區(qū)域有效。為了在測試時(shí)處理運(yùn)動中的人,可以利用人工分割網(wǎng)絡(luò)來蓋住初始深度圖中的人類區(qū)域。這樣,我們網(wǎng)絡(luò)的完整輸入包括:RGB圖像、蓋住人類的區(qū)域,以及基于視差的遮蓋后的深度圖。

深度預(yù)測網(wǎng)絡(luò):模型的輸入包括RGB圖像(第t幀),人類區(qū)域的遮蓋和非人類區(qū)域的初始深度,根據(jù)輸入幀與另一個(gè)之間的運(yùn)動視差(光流)計(jì)算視頻中的幀。模型輸出第t幀的完整深度圖。由MVS算法計(jì)算出的深度圖負(fù)責(zé)對訓(xùn)練過程的監(jiān)督。

該網(wǎng)絡(luò)的作用是“修復(fù)”人與場景的深度值,并在其他地方細(xì)化深度值。因?yàn)槿祟惖耐庑魏痛笮√卣鲙缀跻恢?,網(wǎng)絡(luò)可以通過觀察多個(gè)訓(xùn)練樣例,在模型內(nèi)部學(xué)習(xí)這些先驗(yàn)知識。經(jīng)過訓(xùn)練后,模型就可以處理任意攝像頭和人體同時(shí)運(yùn)動的視頻。

以下是基于視頻的深度預(yù)測模型結(jié)果的一些示例,并與最近基于最新學(xué)習(xí)的方法做了比較。

上圖:基于學(xué)習(xí)的單眼深度預(yù)測方法。 下圖:基于學(xué)習(xí)的立體方法(DeMoN)和我們的估計(jì)深度圖的結(jié)果。

使用深度圖處理3D視頻效果

我們預(yù)測的深度圖可用于產(chǎn)生一系列3D感知視頻效

使用估計(jì)深度圖產(chǎn)生的散景效果

我們的深度圖也可用于其他方面的應(yīng)用,包括利用單眼視頻生成立體視頻,將合成CG對象插入場景,還可以在視頻的其他幀中顯示內(nèi)容的情況下進(jìn)行場景區(qū)域的填充。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6231

    瀏覽量

    108115
  • 計(jì)算機(jī)視覺
    +關(guān)注

    關(guān)注

    9

    文章

    1708

    瀏覽量

    46774
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5561

    瀏覽量

    122793

原文標(biāo)題:Google AI:機(jī)器學(xué)習(xí)預(yù)測場景深度圖,模擬人眼更進(jìn)一步

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    英飛凌邊緣AI平臺通過Ultralytics YOLO模型增加對計(jì)算機(jī)視覺的支持

    計(jì)算機(jī)視覺的支持,擴(kuò)大了當(dāng)前對音頻、雷達(dá)和其他時(shí)間序列信號數(shù)據(jù)的支持范圍。增加這項(xiàng)支持后,該平臺將能夠用于開發(fā)低功耗、低內(nèi)存的邊緣AI視覺模型
    的頭像 發(fā)表于 03-11 15:11 ?382次閱讀
    英飛凌邊緣AI平臺通過Ultralytics YOLO<b class='flag-5'>模型</b>增加對<b class='flag-5'>計(jì)算機(jī)</b><b class='flag-5'>視覺</b>的支持

    ??低?b class='flag-5'>推出視覺模型系列攝像機(jī)

    依托海康觀瀾大模型技術(shù)體系,??低晫⒋?b class='flag-5'>模型能力直接部署至端側(cè),推出一系列視覺模型攝像機(jī)。
    的頭像 發(fā)表于 03-05 14:06 ?717次閱讀

    Arm KleidiCV與OpenCV集成助力移動端計(jì)算機(jī)視覺性能優(yōu)化

    生成式及多模態(tài)人工智能 (AI) 工作負(fù)載的廣泛增長,推動了對計(jì)算機(jī)視覺 (CV) 技術(shù)日益高漲的需求。此類技術(shù)能夠解釋并分析源自現(xiàn)實(shí)世界的視覺信息,并可應(yīng)用于人臉識別、照片分類、濾鏡處理及增強(qiáng)現(xiàn)實(shí)
    的頭像 發(fā)表于 02-24 10:15 ?565次閱讀

    AR和VR中的計(jì)算機(jī)視覺

    ):計(jì)算機(jī)視覺引領(lǐng)混合現(xiàn)實(shí)體驗(yàn)增強(qiáng)現(xiàn)實(shí)(AR)和虛擬現(xiàn)實(shí)(VR)正在徹底改變我們與外部世界的互動方式。即便是引人入勝的沉浸式
    的頭像 發(fā)表于 02-08 14:29 ?1558次閱讀
    AR和VR中的<b class='flag-5'>計(jì)算機(jī)</b><b class='flag-5'>視覺</b>

    【小白入門必看】一文讀懂深度學(xué)習(xí)計(jì)算機(jī)視覺技術(shù)及學(xué)習(xí)路線

    ,幫我們做決定。整個(gè)過程就是為了讓機(jī)器能看懂圖像,然后根據(jù)這些圖像來做出聰明的選擇。二、計(jì)算機(jī)視覺實(shí)現(xiàn)起來難嗎?人類依賴視覺,找輛汽車輕而易舉,畢竟汽車那么大,一眼
    的頭像 發(fā)表于 10-31 17:00 ?1238次閱讀
    【小白入門必看】一文讀懂深度學(xué)習(xí)<b class='flag-5'>計(jì)算機(jī)</b><b class='flag-5'>視覺</b>技術(shù)及學(xué)習(xí)路線

    ARMxy嵌入式計(jì)算機(jī)機(jī)器視覺中的卓越表現(xiàn)

    嵌入式視覺是指在嵌入式系統(tǒng)中使用計(jì)算機(jī)視覺技術(shù),與經(jīng)常所說的機(jī)器視覺系統(tǒng)的區(qū)別在于嵌入式視覺系統(tǒng)是多合一的設(shè)備,簡單來說嵌入式
    的頭像 發(fā)表于 10-10 14:47 ?545次閱讀
    ARMxy嵌入式<b class='flag-5'>計(jì)算機(jī)</b><b class='flag-5'>在</b>機(jī)器<b class='flag-5'>視覺</b>中的卓越表現(xiàn)

    初創(chuàng)公司SEA.AI利用NVIDIA邊緣AI和計(jì)算機(jī)視覺技術(shù)變革航海安全系統(tǒng)

    總部位于奧地利林茨的初創(chuàng)公司正在利用 NVIDIA 邊緣 AI 和計(jì)算機(jī)視覺技術(shù)變革航海安全系統(tǒng),讓每一次出海變得更安全。
    的頭像 發(fā)表于 09-09 09:32 ?913次閱讀

    視覺檢測是什么意思?機(jī)器視覺檢測的適用行業(yè)及場景有哪些?

    檢測的定義與原理 機(jī)器視覺檢測,是利用光學(xué)成像、數(shù)字信號處理和計(jì)算機(jī)技術(shù),模擬人類視覺的功能,對目標(biāo)物體進(jìn)行自動檢測和分析的技術(shù)。它包括圖像采集、預(yù)處理、特征提取、分類識別等多個(gè)環(huán)節(jié),
    的頭像 發(fā)表于 08-30 11:20 ?884次閱讀

    銳思智芯展示融合視覺感知技術(shù)創(chuàng)新與產(chǎn)品應(yīng)用

    日前,計(jì)算機(jī)視覺和人工智能領(lǐng)域最具影響力的頂級學(xué)術(shù)會議——IEEE國際計(jì)算機(jī)視覺與模式識別會議(CVPR2024)
    的頭像 發(fā)表于 08-28 14:36 ?932次閱讀

    計(jì)算機(jī)視覺有哪些優(yōu)缺點(diǎn)

    計(jì)算機(jī)視覺作為人工智能領(lǐng)域的一個(gè)重要分支,旨在使計(jì)算機(jī)能夠像人類一樣理解和解釋圖像和視頻中的信息。這一技術(shù)的發(fā)展不僅推動了多個(gè)行業(yè)的變革,也
    的頭像 發(fā)表于 08-14 09:49 ?2038次閱讀

    圖像處理器與計(jì)算機(jī)視覺有什么關(guān)系和區(qū)別

    圖像處理器與計(jì)算機(jī)視覺是兩個(gè)圖像處理領(lǐng)域緊密相連但又有所區(qū)別的概念。它們之間的關(guān)系和區(qū)別可以從多個(gè)維度進(jìn)行探討。
    的頭像 發(fā)表于 08-14 09:36 ?1042次閱讀

    機(jī)器視覺焊接質(zhì)量檢測中的應(yīng)用

    的可能性。今天跟隨創(chuàng)想智控小編一起了解機(jī)器視覺焊接質(zhì)量檢測中的應(yīng)用。 1. 機(jī)器視覺原理 機(jī)器視覺是一種利用計(jì)算機(jī)技術(shù)對圖像進(jìn)行分析和處理
    的頭像 發(fā)表于 08-13 16:33 ?626次閱讀

    計(jì)算機(jī)視覺中的圖像融合

    許多計(jì)算機(jī)視覺應(yīng)用中(例如機(jī)器人運(yùn)動和醫(yī)學(xué)成像),需要將多個(gè)圖像的相關(guān)信息整合到單一圖像中。這種圖像融合可以提供更高的可靠性、準(zhǔn)確性和數(shù)據(jù)質(zhì)量。多視圖融合可以提高圖像分辨率,并恢復(fù)場景的三維表示
    的頭像 發(fā)表于 08-01 08:28 ?1140次閱讀
    <b class='flag-5'>計(jì)算機(jī)</b><b class='flag-5'>視覺</b>中的圖像融合

    地平線科研論文入選國際計(jì)算機(jī)視覺頂會ECCV 2024

    近日,地平線兩篇論文入選國際計(jì)算機(jī)視覺頂會ECCV 2024,自動駕駛算法技術(shù)再有新突破。
    的頭像 發(fā)表于 07-27 11:10 ?1463次閱讀
    地平線科研論文入選國際<b class='flag-5'>計(jì)算機(jī)</b><b class='flag-5'>視覺</b>頂會ECCV 2024

    計(jì)算機(jī)視覺技術(shù)的AI算法模型

    計(jì)算機(jī)視覺技術(shù)作為人工智能領(lǐng)域的一個(gè)重要分支,旨在使計(jì)算機(jī)能夠像人類一樣理解和解釋圖像及視頻中的信息。為了實(shí)現(xiàn)這一目標(biāo),
    的頭像 發(fā)表于 07-24 12:46 ?1802次閱讀