一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Facebook的研究人員提出了Mesh R-CNN模型

nlfO_thejiangme ? 來(lái)源:lq ? 2019-08-02 15:51 ? 次閱讀

隨著計(jì)算機(jī)視覺(jué)的發(fā)展,2D目標(biāo)檢測(cè)在精度和速度方面已經(jīng)得到了巨大的提升,并在各個(gè)領(lǐng)域取得了令人矚目的成績(jī)。但2D檢測(cè)卻忽視了物體的三維信息。目前的3D形狀預(yù)測(cè)研究主要基于合成數(shù)據(jù)集和當(dāng)個(gè)目標(biāo)的預(yù)測(cè)。

為了解決這一問(wèn)題,來(lái)自Facebook的研究人員提出了Mesh R-CNN模型,可以從單張輸入圖像中檢測(cè)不同物體,并預(yù)測(cè)出每個(gè)物體對(duì)應(yīng)的三角網(wǎng)格,將二維目標(biāo)檢測(cè)的能力成功地拓展到了三維目標(biāo)檢測(cè)和形狀預(yù)測(cè)。

三維目標(biāo)檢測(cè)與形狀預(yù)測(cè)

近年來(lái)深度學(xué)習(xí)在三維形狀理解領(lǐng)域有了很大的提升,研究人員們利用神經(jīng)網(wǎng)絡(luò)對(duì)體素、點(diǎn)云、網(wǎng)格等三維表示進(jìn)行學(xué)習(xí),推進(jìn)了三維世界表示和理解的發(fā)展。但這些技術(shù)主要基于合成數(shù)據(jù)集進(jìn)行開發(fā)和研究,缺乏復(fù)雜的形狀和條件,相比二維圖像的大型數(shù)據(jù)集還遠(yuǎn)遠(yuǎn)不夠。研究人員認(rèn)為三維研究領(lǐng)域需要開發(fā)新的識(shí)別與理解系統(tǒng),可以在非限制環(huán)境、復(fù)雜形狀、多物體以及光照條件變化的情境下穩(wěn)定運(yùn)行。

為了實(shí)現(xiàn)這一目標(biāo),研究人員開發(fā)了2D感知和3D形狀預(yù)測(cè)的方法,可以在單張RGB輸入的情況下實(shí)現(xiàn)目標(biāo)檢測(cè)、實(shí)例分割以及目標(biāo)3D三角網(wǎng)格預(yù)測(cè)的功能。這一方法基于Mask R-CNN改進(jìn)而來(lái),增加了網(wǎng)格預(yù)測(cè)分支來(lái)輸出高分辨的目標(biāo)三角網(wǎng)格。這種方法預(yù)測(cè)出的網(wǎng)格不僅能夠捕捉不同的3D結(jié)構(gòu)中,同時(shí)可以適用于不同的幾何復(fù)雜度。Mesh R-CNN克服了先前固定網(wǎng)格模板的形態(tài)預(yù)測(cè)方法,利用多種三維表示方法完成預(yù)測(cè)。

Mesh R-CNN首先預(yù)測(cè)出目標(biāo)粗糙的體素、隨后轉(zhuǎn)換為網(wǎng)格并利用精確的網(wǎng)格預(yù)測(cè)分支進(jìn)行優(yōu)化,最后實(shí)現(xiàn)了對(duì)于任意幾何結(jié)構(gòu)的精細(xì)預(yù)測(cè)。

Mesh R-CNN

這一研究的目標(biāo)是通過(guò)單張圖像輸入,對(duì)圖像中的物體進(jìn)行檢測(cè)、獲取不同物體的類別、掩膜和對(duì)應(yīng)的三維網(wǎng)格,并對(duì)真實(shí)世界中的復(fù)雜模型進(jìn)行有效處理。在2D深度網(wǎng)絡(luò)的基礎(chǔ)上,研究人員改進(jìn)并提出了新的架構(gòu)。

這一模型主要分為三個(gè)部分,包括了預(yù)測(cè)box和mask的檢測(cè)分支、預(yù)測(cè)體素的分支和mesh優(yōu)化分支。受到RoIAlign的啟發(fā),研究人員在網(wǎng)格預(yù)測(cè)中加入了VertAlign將輸入圖像與特征進(jìn)行對(duì)應(yīng)。

體素預(yù)測(cè)分支與box/mask預(yù)測(cè)分支的輸入相同,都使用了與圖像對(duì)齊的特征。模型最后將目標(biāo)檢測(cè)、語(yǔ)義分割損失與網(wǎng)格預(yù)測(cè)損失結(jié)合起一同對(duì)網(wǎng)絡(luò)進(jìn)行端到端的訓(xùn)練和優(yōu)化。Mesh R-CNN的核心是網(wǎng)格預(yù)測(cè)器,它將對(duì)齊的圖像特征進(jìn)行輸入,并輸出目標(biāo)的三維網(wǎng)格。與二維圖像的處理相似,研究人員同時(shí)也維護(hù)了特征在不同階段的對(duì)齊,包括區(qū)域和體素對(duì)應(yīng)的對(duì)齊操作(RoIAlign和VertAlign),并捕捉圖像中所有實(shí)例的3D形狀。

這意味著每一個(gè)預(yù)測(cè)出的網(wǎng)格都具有自己的拓?fù)浣Y(jié)構(gòu)(包括網(wǎng)格種類、一定數(shù)量的頂點(diǎn)、邊和面)以及幾何形狀。這一模型可以預(yù)測(cè)不同形狀和拓?fù)浣Y(jié)構(gòu)的網(wǎng)格。

模型的體素分支將針對(duì)每一個(gè)檢測(cè)到的物體預(yù)測(cè)柵格在空間中的占據(jù)概率,并得到三維模型最終的形狀結(jié)果。可以將其視為3D版的Mask R-CNN,利用GxGxG的柵格在三維空間中預(yù)測(cè)出目標(biāo)的外形。

同樣和Mask R-CNN類似的是,對(duì)于體素的預(yù)測(cè)同樣適用了來(lái)自RoIAlign的特征,并得到G個(gè)通道特征,其中的體素表示了輸入位置的占據(jù)分?jǐn)?shù),在實(shí)驗(yàn)中研究人員使用了24x24x24大小的體素表示。

隨后立方體化方法(Cubify)將3D體素的占據(jù)概率轉(zhuǎn)換為三角網(wǎng)格模型。它將輸入的占據(jù)概率二進(jìn)制輸出,每一個(gè)體素占據(jù)點(diǎn)被一個(gè)立方體的三角網(wǎng)格代替,包含了8個(gè)頂點(diǎn)、18條邊和12個(gè)面。相鄰立方體共享邊,緊鄰的面被消除,最終得到與體素形態(tài)學(xué)相同的網(wǎng)格表示。

最后需要將得到的網(wǎng)格進(jìn)一步優(yōu)化以獲取更為精確的結(jié)果。與很多體素/網(wǎng)格的優(yōu)化方法相同,首先需要將頂點(diǎn)與圖像特征對(duì)齊,隨后利用圖網(wǎng)絡(luò)卷積的方法在每一條mesh邊上對(duì)信息進(jìn)行傳播,最后將得到的結(jié)果用于更新每一個(gè)頂點(diǎn)的位置。

上面三個(gè)步驟在優(yōu)化過(guò)程中不斷進(jìn)行。最后為了給mesh優(yōu)化分支建立損失,研究人員在網(wǎng)格表面進(jìn)行稠密的采樣得到點(diǎn)云來(lái)計(jì)算網(wǎng)格優(yōu)化分支的損失。

結(jié)果

最終研究人員在ShapeNet 數(shù)據(jù)集和Pix3D數(shù)據(jù)集上驗(yàn)證了這種方法的有效性。可以看到新提出的方法可以有效地預(yù)測(cè)帶有孔洞的物體。

同時(shí)對(duì)于復(fù)雜環(huán)境中的三維物體也有良好的預(yù)測(cè)效果:

文章附錄里給出了包括立方體化、網(wǎng)格采樣、消融性分析以及與各種方法的比較,如果想要了解更多的實(shí)現(xiàn)細(xì)節(jié),請(qǐng)參看:

https://arxiv.org/pdf/1906.02739.pdf

ref:

paper:https://arxiv.org/pdf/1906.02739.pdf

logopicture:https://dribbble.com/shots/1143435-Pikachu-Polymon

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1091

    瀏覽量

    40918
  • Facebook
    +關(guān)注

    關(guān)注

    3

    文章

    1432

    瀏覽量

    55886
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1221

    瀏覽量

    25202

原文標(biāo)題:Facebook研究員提出Mesh R-CNN,向三維進(jìn)擊的目標(biāo)檢測(cè)!

文章出處:【微信號(hào):thejiangmen,微信公眾號(hào):將門創(chuàng)投】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    手把手教你使用LabVIEW實(shí)現(xiàn)Mask R-CNN圖像實(shí)例分割(含源碼)

    使用LabVIEW實(shí)現(xiàn)Mask R-CNN圖像實(shí)例分割
    的頭像 發(fā)表于 03-21 13:39 ?2922次閱讀
    手把手教你使用LabVIEW實(shí)現(xiàn)Mask <b class='flag-5'>R-CNN</b>圖像實(shí)例分割(含源碼)

    介紹目標(biāo)檢測(cè)工具Faster R-CNN,包括它的構(gòu)造及實(shí)現(xiàn)原理

    在本篇文章中,公司的研究人員介紹了他們?cè)?b class='flag-5'>研究過(guò)程中所使用的先進(jìn)目標(biāo)檢測(cè)工具Faster R-CNN,包括它的構(gòu)造及實(shí)現(xiàn)原理。
    的頭像 發(fā)表于 01-27 11:49 ?1.9w次閱讀
    介紹目標(biāo)檢測(cè)工具Faster <b class='flag-5'>R-CNN</b>,包括它的構(gòu)造及實(shí)現(xiàn)原理

    Mask R-CNN:自動(dòng)從視頻中制作目標(biāo)物體的GIF動(dòng)圖

    用深度學(xué)習(xí)模型——Mask R-CNN,自動(dòng)從視頻中制作目標(biāo)物體的GIF動(dòng)圖。
    的頭像 發(fā)表于 02-03 14:19 ?1.2w次閱讀

    什么是Mask R-CNN?Mask R-CNN的工作原理

    它的概念很簡(jiǎn)單:對(duì)于每個(gè)目標(biāo)對(duì)象,F(xiàn)aster R-CNN都有兩個(gè)輸出,一是分類標(biāo)簽,二是候選窗口;為了分割目標(biāo)像素,我們可以在前兩個(gè)輸出的基礎(chǔ)上增加第三個(gè)輸出——指示對(duì)象在窗口中像素位置的二進(jìn)制
    的頭像 發(fā)表于 07-20 08:53 ?6.8w次閱讀

    手把手教你操作Faster R-CNN和Mask R-CNN

    Pooling的基礎(chǔ)之上提出了ROI Align。所以要想理解Mask R-CNN,就要先熟悉Faster R-CNN。同樣的,F(xiàn)aster R-CNN是承繼于Fast
    的頭像 發(fā)表于 04-04 16:32 ?1.3w次閱讀

    研究人員提出了一系列新的點(diǎn)云處理模塊

    為了探索這些問(wèn)題的解決辦法、來(lái)自倫敦大學(xué)學(xué)院的研究人員提出了一系列新的點(diǎn)云處理模塊,從效率、信息共享和點(diǎn)云卷積操作等方面進(jìn)行了研究,得到了更寬、更深、更快效率更高的點(diǎn)云處理網(wǎng)絡(luò),讓更深的點(diǎn)云深度學(xué)習(xí)
    的頭像 發(fā)表于 08-02 14:44 ?3197次閱讀
    <b class='flag-5'>研究人員</b>們<b class='flag-5'>提出了</b>一系列新的點(diǎn)云處理模塊

    JD和OPPO的研究人員提出了一種姿勢(shì)引導(dǎo)的時(shí)尚圖像生成模型

    研究人員的主要目的在于訓(xùn)練一個(gè)生成模型,將模特在當(dāng)前姿勢(shì)上的圖像遷移到其他的目標(biāo)姿勢(shì)上去,實(shí)現(xiàn)對(duì)于衣著等商品的全面展示。
    的頭像 發(fā)表于 08-02 14:50 ?2695次閱讀

    研究人員提出了一個(gè)名為CommPlan的框架

    使用CommPlan,開發(fā)人員首先使用數(shù)據(jù),領(lǐng)域?qū)I(yè)知識(shí)和學(xué)習(xí)算法指定五個(gè)模塊-任務(wù)模型,通信功能,通信成本模型,人員響應(yīng)模型
    的頭像 發(fā)表于 04-09 14:30 ?2256次閱讀

    Facebook研究人員發(fā)布友誼數(shù)據(jù)

    Facebook在一篇博文中表示,卡耐基梅隆大學(xué)的研究人員“不會(huì)與Facebook分享個(gè)人調(diào)查反饋,Facebook也不會(huì)與研究人員分享關(guān)于
    的頭像 發(fā)表于 04-22 10:58 ?3425次閱讀

    基于改進(jìn)Faster R-CNN的目標(biāo)檢測(cè)方法

    為提高小尺度行人檢測(cè)的準(zhǔn)確性,提出一種基于改進(jìn) Faster r-CNN的目標(biāo)檢測(cè)方法。通過(guò)引入基于雙線性插值的對(duì)齊池化層,避免感興趣區(qū)域池化過(guò)程中兩次量化操作導(dǎo)致的位置偏差,同時(shí)設(shè)計(jì)基于級(jí)聯(lián)的多層
    發(fā)表于 03-23 14:52 ?3次下載
    基于改進(jìn)Faster <b class='flag-5'>R-CNN</b>的目標(biāo)檢測(cè)方法

    華裔女博士提出Facebook提出用于超參數(shù)調(diào)整的自我監(jiān)督學(xué)習(xí)框架

    【導(dǎo)讀】Facebook研究人員近日提出了一種用于超參數(shù)調(diào)整的自我監(jiān)督學(xué)習(xí)框架。
    的頭像 發(fā)表于 04-26 09:45 ?1883次閱讀
    華裔女博士<b class='flag-5'>提出</b>:<b class='flag-5'>Facebook</b><b class='flag-5'>提出</b>用于超參數(shù)調(diào)整的自我監(jiān)督學(xué)習(xí)框架

    基于Mask R-CNN的遙感圖像處理技術(shù)綜述

    較為密集,且容易與港口混合。當(dāng)前對(duì)艦船檢測(cè)的輸岀結(jié)果主要是檢測(cè)框,缺少對(duì)艦船掩碼的輸岀,使得無(wú)法全面分析岀模型存在的不足;冋時(shí),由于遙感圖像中的艦船??棵芗?,容易產(chǎn)生漏檢問(wèn)題。為解決上述問(wèn)題,利用 Mask r-cnn對(duì)艦
    發(fā)表于 05-08 16:39 ?3次下載

    用于實(shí)例分割的Mask R-CNN框架

    我們的方法稱為 Mask R-CNN,擴(kuò)展了 Faster RCNN ,方法是在每個(gè)感興趣區(qū)域 (RoI) 上添加一個(gè)用于預(yù)測(cè)分割掩碼的分支,與用于分類和邊界框回歸的現(xiàn)有分支并行(圖 1)。掩碼分支
    的頭像 發(fā)表于 04-13 10:40 ?2887次閱讀

    PyTorch教程14.8之基于區(qū)域的CNN(R-CNN)

    電子發(fā)燒友網(wǎng)站提供《PyTorch教程14.8之基于區(qū)域的CNN(R-CNN).pdf》資料免費(fèi)下載
    發(fā)表于 06-05 11:09 ?0次下載
    PyTorch教程14.8之基于區(qū)域的<b class='flag-5'>CNN</b>(<b class='flag-5'>R-CNN</b>)

    PyTorch教程-14.8?;趨^(qū)域的 CNN (R-CNN)

    )、faster R-CNN ( Ren et al. , 2015 )和掩模 R-CNN ( He等,2017)。由于篇幅有限,我們將只關(guān)注這些模型的設(shè)計(jì)。 14.8.1。R
    的頭像 發(fā)表于 06-05 15:44 ?841次閱讀
    PyTorch教程-14.8?;趨^(qū)域的 <b class='flag-5'>CNN</b> (<b class='flag-5'>R-CNN</b>)