一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Facebook的研究人員提出了Mesh R-CNN模型

nlfO_thejiangme ? 來源:lq ? 2019-08-02 15:51 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

隨著計算機(jī)視覺的發(fā)展,2D目標(biāo)檢測在精度和速度方面已經(jīng)得到了巨大的提升,并在各個領(lǐng)域取得了令人矚目的成績。但2D檢測卻忽視了物體的三維信息。目前的3D形狀預(yù)測研究主要基于合成數(shù)據(jù)集和當(dāng)個目標(biāo)的預(yù)測。

為了解決這一問題,來自Facebook的研究人員提出了Mesh R-CNN模型,可以從單張輸入圖像中檢測不同物體,并預(yù)測出每個物體對應(yīng)的三角網(wǎng)格,將二維目標(biāo)檢測的能力成功地拓展到了三維目標(biāo)檢測和形狀預(yù)測。

三維目標(biāo)檢測與形狀預(yù)測

近年來深度學(xué)習(xí)在三維形狀理解領(lǐng)域有了很大的提升,研究人員們利用神經(jīng)網(wǎng)絡(luò)對體素、點云、網(wǎng)格等三維表示進(jìn)行學(xué)習(xí),推進(jìn)了三維世界表示和理解的發(fā)展。但這些技術(shù)主要基于合成數(shù)據(jù)集進(jìn)行開發(fā)和研究,缺乏復(fù)雜的形狀和條件,相比二維圖像的大型數(shù)據(jù)集還遠(yuǎn)遠(yuǎn)不夠。研究人員認(rèn)為三維研究領(lǐng)域需要開發(fā)新的識別與理解系統(tǒng),可以在非限制環(huán)境、復(fù)雜形狀、多物體以及光照條件變化的情境下穩(wěn)定運行。

為了實現(xiàn)這一目標(biāo),研究人員開發(fā)了2D感知和3D形狀預(yù)測的方法,可以在單張RGB輸入的情況下實現(xiàn)目標(biāo)檢測、實例分割以及目標(biāo)3D三角網(wǎng)格預(yù)測的功能。這一方法基于Mask R-CNN改進(jìn)而來,增加了網(wǎng)格預(yù)測分支來輸出高分辨的目標(biāo)三角網(wǎng)格。這種方法預(yù)測出的網(wǎng)格不僅能夠捕捉不同的3D結(jié)構(gòu)中,同時可以適用于不同的幾何復(fù)雜度。Mesh R-CNN克服了先前固定網(wǎng)格模板的形態(tài)預(yù)測方法,利用多種三維表示方法完成預(yù)測。

Mesh R-CNN首先預(yù)測出目標(biāo)粗糙的體素、隨后轉(zhuǎn)換為網(wǎng)格并利用精確的網(wǎng)格預(yù)測分支進(jìn)行優(yōu)化,最后實現(xiàn)了對于任意幾何結(jié)構(gòu)的精細(xì)預(yù)測。

Mesh R-CNN

這一研究的目標(biāo)是通過單張圖像輸入,對圖像中的物體進(jìn)行檢測、獲取不同物體的類別、掩膜和對應(yīng)的三維網(wǎng)格,并對真實世界中的復(fù)雜模型進(jìn)行有效處理。在2D深度網(wǎng)絡(luò)的基礎(chǔ)上,研究人員改進(jìn)并提出了新的架構(gòu)。

這一模型主要分為三個部分,包括了預(yù)測box和mask的檢測分支、預(yù)測體素的分支和mesh優(yōu)化分支。受到RoIAlign的啟發(fā),研究人員在網(wǎng)格預(yù)測中加入了VertAlign將輸入圖像與特征進(jìn)行對應(yīng)。

體素預(yù)測分支與box/mask預(yù)測分支的輸入相同,都使用了與圖像對齊的特征。模型最后將目標(biāo)檢測、語義分割損失與網(wǎng)格預(yù)測損失結(jié)合起一同對網(wǎng)絡(luò)進(jìn)行端到端的訓(xùn)練和優(yōu)化。Mesh R-CNN的核心是網(wǎng)格預(yù)測器,它將對齊的圖像特征進(jìn)行輸入,并輸出目標(biāo)的三維網(wǎng)格。與二維圖像的處理相似,研究人員同時也維護(hù)了特征在不同階段的對齊,包括區(qū)域和體素對應(yīng)的對齊操作(RoIAlign和VertAlign),并捕捉圖像中所有實例的3D形狀。

這意味著每一個預(yù)測出的網(wǎng)格都具有自己的拓?fù)浣Y(jié)構(gòu)(包括網(wǎng)格種類、一定數(shù)量的頂點、邊和面)以及幾何形狀。這一模型可以預(yù)測不同形狀和拓?fù)浣Y(jié)構(gòu)的網(wǎng)格。

模型的體素分支將針對每一個檢測到的物體預(yù)測柵格在空間中的占據(jù)概率,并得到三維模型最終的形狀結(jié)果??梢詫⑵湟暈?D版的Mask R-CNN,利用GxGxG的柵格在三維空間中預(yù)測出目標(biāo)的外形。

同樣和Mask R-CNN類似的是,對于體素的預(yù)測同樣適用了來自RoIAlign的特征,并得到G個通道特征,其中的體素表示了輸入位置的占據(jù)分?jǐn)?shù),在實驗中研究人員使用了24x24x24大小的體素表示。

隨后立方體化方法(Cubify)將3D體素的占據(jù)概率轉(zhuǎn)換為三角網(wǎng)格模型。它將輸入的占據(jù)概率二進(jìn)制輸出,每一個體素占據(jù)點被一個立方體的三角網(wǎng)格代替,包含了8個頂點、18條邊和12個面。相鄰立方體共享邊,緊鄰的面被消除,最終得到與體素形態(tài)學(xué)相同的網(wǎng)格表示。

最后需要將得到的網(wǎng)格進(jìn)一步優(yōu)化以獲取更為精確的結(jié)果。與很多體素/網(wǎng)格的優(yōu)化方法相同,首先需要將頂點與圖像特征對齊,隨后利用圖網(wǎng)絡(luò)卷積的方法在每一條mesh邊上對信息進(jìn)行傳播,最后將得到的結(jié)果用于更新每一個頂點的位置。

上面三個步驟在優(yōu)化過程中不斷進(jìn)行。最后為了給mesh優(yōu)化分支建立損失,研究人員在網(wǎng)格表面進(jìn)行稠密的采樣得到點云來計算網(wǎng)格優(yōu)化分支的損失。

結(jié)果

最終研究人員在ShapeNet 數(shù)據(jù)集和Pix3D數(shù)據(jù)集上驗證了這種方法的有效性??梢钥吹叫绿岢龅姆椒梢杂行У仡A(yù)測帶有孔洞的物體。

同時對于復(fù)雜環(huán)境中的三維物體也有良好的預(yù)測效果:

文章附錄里給出了包括立方體化、網(wǎng)格采樣、消融性分析以及與各種方法的比較,如果想要了解更多的實現(xiàn)細(xì)節(jié),請參看:

https://arxiv.org/pdf/1906.02739.pdf

ref:

paper:https://arxiv.org/pdf/1906.02739.pdf

logopicture:https://dribbble.com/shots/1143435-Pikachu-Polymon

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1094

    瀏覽量

    41248
  • Facebook
    +關(guān)注

    關(guān)注

    3

    文章

    1432

    瀏覽量

    56733
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1224

    瀏覽量

    25446

原文標(biāo)題:Facebook研究員提出Mesh R-CNN,向三維進(jìn)擊的目標(biāo)檢測!

文章出處:【微信號:thejiangmen,微信公眾號:將門創(chuàng)投】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    手把手教你使用LabVIEW實現(xiàn)Mask R-CNN圖像實例分割(含源碼)

    使用LabVIEW實現(xiàn)Mask R-CNN圖像實例分割
    的頭像 發(fā)表于 03-21 13:39 ?3241次閱讀
    手把手教你使用LabVIEW實現(xiàn)Mask <b class='flag-5'>R-CNN</b>圖像實例分割(含源碼)

    介紹目標(biāo)檢測工具Faster R-CNN,包括它的構(gòu)造及實現(xiàn)原理

    在本篇文章中,公司的研究人員介紹了他們在研究過程中所使用的先進(jìn)目標(biāo)檢測工具Faster R-CNN,包括它的構(gòu)造及實現(xiàn)原理。
    的頭像 發(fā)表于 01-27 11:49 ?1.9w次閱讀
    介紹目標(biāo)檢測工具Faster <b class='flag-5'>R-CNN</b>,包括它的構(gòu)造及實現(xiàn)原理

    Mask R-CNN:自動從視頻中制作目標(biāo)物體的GIF動圖

    用深度學(xué)習(xí)模型——Mask R-CNN,自動從視頻中制作目標(biāo)物體的GIF動圖。
    的頭像 發(fā)表于 02-03 14:19 ?1.2w次閱讀

    什么是Mask R-CNN?Mask R-CNN的工作原理

    它的概念很簡單:對于每個目標(biāo)對象,F(xiàn)aster R-CNN都有兩個輸出,一是分類標(biāo)簽,二是候選窗口;為了分割目標(biāo)像素,我們可以在前兩個輸出的基礎(chǔ)上增加第三個輸出——指示對象在窗口中像素位置的二進(jìn)制
    的頭像 發(fā)表于 07-20 08:53 ?6.8w次閱讀

    手把手教你操作Faster R-CNN和Mask R-CNN

    Pooling的基礎(chǔ)之上提出了ROI Align。所以要想理解Mask R-CNN,就要先熟悉Faster R-CNN。同樣的,F(xiàn)aster R-CNN是承繼于Fast
    的頭像 發(fā)表于 04-04 16:32 ?1.4w次閱讀

    研究人員提出了一系列新的點云處理模塊

    為了探索這些問題的解決辦法、來自倫敦大學(xué)學(xué)院的研究人員提出了一系列新的點云處理模塊,從效率、信息共享和點云卷積操作等方面進(jìn)行了研究,得到了更寬、更深、更快效率更高的點云處理網(wǎng)絡(luò),讓更深的點云深度學(xué)習(xí)
    的頭像 發(fā)表于 08-02 14:44 ?3323次閱讀
    <b class='flag-5'>研究人員</b>們<b class='flag-5'>提出了</b>一系列新的點云處理模塊

    JD和OPPO的研究人員提出了一種姿勢引導(dǎo)的時尚圖像生成模型

    研究人員的主要目的在于訓(xùn)練一個生成模型,將模特在當(dāng)前姿勢上的圖像遷移到其他的目標(biāo)姿勢上去,實現(xiàn)對于衣著等商品的全面展示。
    的頭像 發(fā)表于 08-02 14:50 ?2783次閱讀

    研究人員提出了一個名為CommPlan的框架

    使用CommPlan,開發(fā)人員首先使用數(shù)據(jù),領(lǐng)域?qū)I(yè)知識和學(xué)習(xí)算法指定五個模塊-任務(wù)模型,通信功能,通信成本模型,人員響應(yīng)模型
    的頭像 發(fā)表于 04-09 14:30 ?2313次閱讀

    Facebook研究人員發(fā)布友誼數(shù)據(jù)

    Facebook在一篇博文中表示,卡耐基梅隆大學(xué)的研究人員“不會與Facebook分享個人調(diào)查反饋,Facebook也不會與研究人員分享關(guān)于
    的頭像 發(fā)表于 04-22 10:58 ?3488次閱讀

    基于改進(jìn)Faster R-CNN的目標(biāo)檢測方法

    為提高小尺度行人檢測的準(zhǔn)確性,提出一種基于改進(jìn) Faster r-CNN的目標(biāo)檢測方法。通過引入基于雙線性插值的對齊池化層,避免感興趣區(qū)域池化過程中兩次量化操作導(dǎo)致的位置偏差,同時設(shè)計基于級聯(lián)的多層
    發(fā)表于 03-23 14:52 ?3次下載
    基于改進(jìn)Faster <b class='flag-5'>R-CNN</b>的目標(biāo)檢測方法

    華裔女博士提出Facebook提出用于超參數(shù)調(diào)整的自我監(jiān)督學(xué)習(xí)框架

    【導(dǎo)讀】Facebook研究人員近日提出了一種用于超參數(shù)調(diào)整的自我監(jiān)督學(xué)習(xí)框架。
    的頭像 發(fā)表于 04-26 09:45 ?1955次閱讀
    華裔女博士<b class='flag-5'>提出</b>:<b class='flag-5'>Facebook</b><b class='flag-5'>提出</b>用于超參數(shù)調(diào)整的自我監(jiān)督學(xué)習(xí)框架

    基于Mask R-CNN的遙感圖像處理技術(shù)綜述

    較為密集,且容易與港口混合。當(dāng)前對艦船檢測的輸岀結(jié)果主要是檢測框,缺少對艦船掩碼的輸岀,使得無法全面分析岀模型存在的不足;冋時,由于遙感圖像中的艦船??棵芗菀桩a(chǎn)生漏檢問題。為解決上述問題,利用 Mask r-cnn對艦
    發(fā)表于 05-08 16:39 ?3次下載

    用于實例分割的Mask R-CNN框架

    我們的方法稱為 Mask R-CNN,擴(kuò)展了 Faster RCNN ,方法是在每個感興趣區(qū)域 (RoI) 上添加一個用于預(yù)測分割掩碼的分支,與用于分類和邊界框回歸的現(xiàn)有分支并行(圖 1)。掩碼分支
    的頭像 發(fā)表于 04-13 10:40 ?3065次閱讀

    PyTorch教程14.8之基于區(qū)域的CNN(R-CNN)

    電子發(fā)燒友網(wǎng)站提供《PyTorch教程14.8之基于區(qū)域的CNN(R-CNN).pdf》資料免費下載
    發(fā)表于 06-05 11:09 ?0次下載
    PyTorch教程14.8之基于區(qū)域的<b class='flag-5'>CNN</b>(<b class='flag-5'>R-CNN</b>)

    PyTorch教程-14.8?;趨^(qū)域的 CNN (R-CNN)

    )、faster R-CNN ( Ren et al. , 2015 )和掩模 R-CNN ( He等,2017)。由于篇幅有限,我們將只關(guān)注這些模型的設(shè)計。 14.8.1。R
    的頭像 發(fā)表于 06-05 15:44 ?963次閱讀
    PyTorch教程-14.8?;趨^(qū)域的 <b class='flag-5'>CNN</b> (<b class='flag-5'>R-CNN</b>)