一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

何愷明等人再出重磅新作:分割任務(wù)的TensorMask框架

電子工程師 ? 來源:lp ? 2019-04-04 17:21 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

看到今天要給大家介紹的論文,也許現(xiàn)在大家已經(jīng)非常熟悉 Ross Girshic、Piotr Dollár 還有我們的大神何愷明的三人組了。沒錯,今天這篇重磅新作還是他們的產(chǎn)出,營長感覺剛介紹他們的新作好像沒多久啊!想要追趕大神腳步,確實是不能懈怠?。?/p>

不過這次一作是來自 FAIR 的陳鑫磊博士,雖然和三人組合比起來,一作陳鑫磊還沒有那么被大家所熟知,不過其實力也是不容小覷的(畢竟后面跟著三個實力響當(dāng)當(dāng)?shù)娜宋铮?。營長在陳鑫磊的個人主頁上看到他的學(xué)習(xí)經(jīng)歷和研究成果,也是忍不住點贊。陳鑫磊在浙江大學(xué)國家重點實驗室 CAD&CG實驗室學(xué)習(xí)時,師從蔡登教授,隨后在 CMU 攻讀博士學(xué)位,現(xiàn)任職于 FAIR,畢業(yè)前曾在 Google Cloud 李飛飛和李佳組內(nèi)實習(xí)。在博士研究期間,每年和導(dǎo)師 Abhinav Gupta 教授都有論文發(fā)表在 AAAI、CVPR、ECCV、ICCV 等頂會上,考慮篇幅,營長就從每年成果中選一篇列舉出來,大家可以前往陳鑫磊的個人主頁中可以看到全部作品。

2013-2018 年間的主要作品:

[1]、Xinlei Chen, Li-Jia Li, Li Fei-Fei, Abhinav Gupta.Iterative Visual Reasoning Beyond Convolutions. The 31st IEEE Conference on Computer Vision and Pattern Recognition(CVPR), 2018.Spotlight

[2]、Xinlei Chen, Abhinav Gupta.Spatial Memory for Context Reasoning in Object Detection. The 15th International Conference on Computer Vision(ICCV), 2017

[3]、Gunnar A. Sigurdsson,Xinlei Chen, Abhinav Gupta.Learning Visual Storylines with Skipping Recurrent Neural Networks. The 14th European Conference on Computer Vision(ECCV), 2016

[4]、Xinlei Chen, Abhinav Gupta.Webly Supervised Learning of Convolutional Networks. The 15th International Conference on Computer Vision(ICCV), 2015.Oral

[5]、Xinlei Chen, C. Lawrence Zitnick.Mind's Eye: A Recurrent Visual Representation for Image Caption Generation. The 28th IEEE Conference on Computer Vision and Pattern Recognition(CVPR), 2015

[6]、Xinlei Chen, Alan Ritter, Abhinav Gupta, Tom Mitchell.Sense Discovery via Co-Clustering on Images and Text. The 28th IEEE Conference on Computer Vision and Pattern Recognition(CVPR), 2015.

[7]、Xinlei Chen, Abhinav Shrivastava, Abhinav Gupta.Enriching Visual Knowledge Bases via Object Discovery and Segmentation. The 27th IEEE Conference on Computer Vision and Pattern Recognition(CVPR), 2014

[8]、Xinlei Chen, Abhinav Shrivastava, Abhinav Gupta.NEIL: Extracting Visual Knowledge from Web Data. The 14th International Conference on Computer Vision(ICCV), 2013.Oral.

這幾個人從出道至今,都有非常多的佳作,出產(chǎn)率也非常高,最近大家還在重談去年三人組合的論文《Rethinking ImageNet Pre-training》,今天就有了這篇在密集掩碼預(yù)測新突破:《TensorMask: A Foundation for Dense Object Segmentation》,大神們簡直就是快要承包整個 CV 界了!

“CV男團”四人的個人主頁(一到四作的順序):

http://xinleic.xyz/#

http://www.rossgirshick.info/

http://kaiminghe.com/

http://pdollar.github.io/

接下來,營長就為大家?guī)怼癈V男團”這篇最新力作的初解讀,因為論文中涉及很多與 TensorMask 框架相關(guān)的專業(yè)術(shù)語,函數(shù)定義等,還需要大家下來細(xì)細(xì)研究,感興趣的同學(xué)可以從下面的論文地址里下載論文進一步學(xué)習(xí),也歡迎大家在后臺給我們留言,發(fā)表你的感想。

論文解讀

摘要

在目標(biāo)檢測任務(wù)中,采用滑窗方式生成目標(biāo)的檢測框是一種非常常用的方法。而在實例分割任務(wù)中,比較主流的圖像分割方法是首先檢測目標(biāo)邊界框,然后進行裁剪和目標(biāo)分割,如 Mask RCNN。在這篇工作中,我們研究了密集滑窗實例分割(dense sliding-window instance segmentation)的模式,發(fā)現(xiàn)與其他的密集預(yù)測任務(wù)如語義分割,目標(biāo)檢測不同,實例分割滑窗在每個空間位置的輸出具有自己空間維度的幾何結(jié)構(gòu)。為了形式化這一點,我們提出了一個通用的框架 TensorMask 來獲得這種幾何結(jié)構(gòu)。

我們通過張量視圖展示了相較于忽略這種結(jié)構(gòu)的 baseline 方法,它可以有一個大的效果提升,甚至比肩于 Mask R-CNN。這樣的實驗結(jié)果足以說明TensorMask 為密集掩碼預(yù)測任務(wù)提供了一個新的理解方向,并可以作為該領(lǐng)域新的基礎(chǔ)方法。

引言

滑窗范式(在一張圖的每個滑動窗口里面去尋找目標(biāo))是視覺任務(wù)里面最早且非常成功的方法,并且可以很自然的和卷積網(wǎng)絡(luò)聯(lián)系起來。雖然像 RCNN 系列方法需要在滑窗的方法上再進行精修,但是像 SSD、RetinaNet 的方法就是直接利用滑窗預(yù)測。在目標(biāo)檢測里面非常受歡迎的方法,在實例分割任務(wù)中卻沒得到足夠的關(guān)注。因此本文的工作就是來填補該缺失。本文主要的 insight 就是定義密集掩碼的表示方式,并且在神經(jīng)網(wǎng)絡(luò)中有效的實現(xiàn)它。與低維、尺度無關(guān)的檢測框不同,分割掩碼需要一種更具有結(jié)構(gòu)化的表示方式。因此,本文在空域上,采用結(jié)構(gòu)化的 4 維張量定義了掩碼的表示方式,并提出了一個基于滑窗方法的密集實例分割框架——TensorMask。在 4 維張量(V,U,H,W)中,H 和 W 表示目標(biāo)的位置,而 V 和 U 表示相關(guān)掩碼的位置。與僅直接在通道上加一個掩碼分支的方法不同,這種方法是具有幾何意義的,并且可以直接在(V,U)張量上進行坐標(biāo)轉(zhuǎn)換,尺度縮放等操作。在 TensorMask 框架中,作者還順手開發(fā)了一個張量尺度金字塔(tensor bipyramid),用于 4 維的尺度縮放。如下公式所示,其中 K 就是尺度。

? ? ?

掩碼的張量表示

TensorMask 框架的主要想法就是利用結(jié)構(gòu)化的高維張量去表示密集的滑動窗口。在理解這樣的一個框架時,需要了解幾個重要的概念。

單位長度(Unit of Length):在不同的軸和尺度上有不同的單位長度,且 HW 和 VU 的單位長度可以不相等。

? ? ?和 ? ? ? ? ? ? ?分別表示其單位長度。

自然表示(Natural Representation):在點(y,x)處的滑窗內(nèi),某點的掩碼值表示,如下截圖所示,其中 alpha 表示 VU 和 HW 的單位長度比率。

對齊表示(Aligned Representation):由于單位長度中 stride 的存在,自然表示存在著像素偏移的問題,因此這里有一個同 ROIAlign 相似的想法,需要從張量的角度定義一個像素級的表示。

坐標(biāo)轉(zhuǎn)換:用于自然表示和對齊表示間的轉(zhuǎn)換,論文給出了兩種情況下的轉(zhuǎn)換公式,一種是簡化版的( ? ? ?),一種是一般版的(就是任意的單位長度)。

上采樣轉(zhuǎn)換(Upscaling Transformation):下圖就是上采樣轉(zhuǎn)換的操作集合。實驗證明它可以在不增加通道數(shù)的情況下,有效的生成高分辨率的掩碼。

張量尺度金字塔(Tensor Bipyramid):由于掩碼存在尺度問題,它需要隨目標(biāo)的大小而進行縮放,為了保持恒定的分辨率密度,提出了這種基于尺度來調(diào)整掩碼像素數(shù)量的方法。

TensorMask結(jié)構(gòu)

基于 TensorMask 表示的模型,有一個采用滑窗的掩碼預(yù)測分支和一個類似于檢測框回歸的分類分支。該結(jié)構(gòu)不需要增加檢測框的分支。掩碼預(yù)測分支可以采用卷積的 backbone,比如 ResNet50。因此,論文提出了多個基礎(chǔ)(baseline)分支和張量尺度金字塔分支,幫助使用者快速上手 TensorMask。需要指出的是,張量尺度金字塔分支是最有效的一個模型。在訓(xùn)練時,作者采用 DeepMask 來幫助標(biāo)記數(shù)據(jù),以及 focal loss 等等。

實驗

為了說明各分支或者操作的作用,論文做了大量的消融實驗來進行論證。具體結(jié)果見下圖表格的數(shù)據(jù)以及與 Mask-RCNN 可視化的對比。實驗結(jié)果證明,TensorMask 能夠定性定量的比肩 MaskR-CNN。

該項工作將滑窗方法與實例分割任務(wù)直接聯(lián)系了起來,能夠幫助該領(lǐng)域的研究者對實例分割有新的理解,期待代碼早日開源。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4814

    瀏覽量

    103707
  • 框架
    +關(guān)注

    關(guān)注

    0

    文章

    404

    瀏覽量

    17904
  • 開源
    +關(guān)注

    關(guān)注

    3

    文章

    3694

    瀏覽量

    43852

原文標(biāo)題:何愷明等人提TensorMask框架:比肩Mask R-CNN,4D張量預(yù)測新突破

文章出處:【微信號:rgznai100,微信公眾號:rgznai100】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    【正點原子STM32MP257開發(fā)板試用】基于 DeepLab 模型的圖像分割

    是谷歌團隊提出的一種用于語義分割的深度學(xué)習(xí)模型,屬于 DeepLab 系列模型的第三代版本。它在圖像語義分割任務(wù)中表現(xiàn)優(yōu)異,能夠高效地捕獲圖像的多尺度上下文信息,并生成高分辨率的分割
    發(fā)表于 06-21 21:11

    第三屆大會回顧第3期 | FFRT并發(fā)框架在OpenHarmony中的設(shè)計與實踐

    演講嘉賓 | 黃佑鐘 回顧整理 | 廖 ? 濤 排版校對 | 宋夕 嘉賓介紹 開發(fā)框架分論壇? 黃佑鐘 ,海思Kirin解決方案并行與異構(gòu)計算專家。 正文內(nèi)容 多任務(wù)并發(fā)能更有效地利用CPU資源
    的頭像 發(fā)表于 06-21 16:53 ?267次閱讀
    第三屆大會回顧第3期 | FFRT并發(fā)<b class='flag-5'>框架</b>在OpenHarmony中的設(shè)計與實踐

    科技發(fā)布勃朗峰畫質(zhì)引擎UF4

    作為亞太地區(qū)專業(yè)視聽領(lǐng)域的年度盛會Infocomm China始終是技術(shù)風(fēng)向的標(biāo)桿,展會期間,洲科技發(fā)布“勃朗峰畫質(zhì)引擎”——UF4,重磅亮相EB1-01展位,帶來一場顛覆視覺體驗的科技盛宴。
    的頭像 發(fā)表于 04-19 15:52 ?726次閱讀

    百度飛槳框架3.0正式版發(fā)布

    、推理等任務(wù)都離不開深度學(xué)習(xí)框架的優(yōu)化與支撐。 飛槳框架3.0,從設(shè)計理念上實現(xiàn)了從底層硬件適配到頂層開發(fā)體驗的全面進化,在訓(xùn)練效率、性能、兼容性等關(guān)鍵指標(biāo)上建立了新標(biāo)桿。 其中, “動靜統(tǒng)一自動并行”、“大模型訓(xùn)推一體”、“科
    的頭像 發(fā)表于 04-02 19:03 ?733次閱讀
    百度飛槳<b class='flag-5'>框架</b>3.0正式版發(fā)布

    BEVFusion —面向自動駕駛的多任務(wù)多傳感器高效融合框架技術(shù)詳解

    BEVFusion 技術(shù)詳解總結(jié)——面向自動駕駛的多任務(wù)多傳感器高效融合框架原始論文:*附件:bevfusion.pdf介紹(Introduction)背景:自動駕駛系統(tǒng)配備了多種傳感器,提供互補
    的頭像 發(fā)表于 02-26 20:33 ?3873次閱讀
    BEVFusion —面向自動駕駛的多<b class='flag-5'>任務(wù)</b>多傳感器高效融合<b class='flag-5'>框架</b>技術(shù)詳解

    德賽電池榮膺仲高新區(qū)三項榮譽

    近日,仲高新區(qū)舉行高質(zhì)量發(fā)展大會暨優(yōu)秀企業(yè)授牌活動,旨在表彰2024年度為仲高新區(qū)經(jīng)濟發(fā)展作出杰出貢獻的優(yōu)秀企業(yè),激勵更多企業(yè)創(chuàng)新發(fā)展,共同推動區(qū)域經(jīng)濟的繁榮與進步。區(qū)領(lǐng)導(dǎo)、園區(qū)、鎮(zhèn)(街道)領(lǐng)導(dǎo)、區(qū)直相關(guān)部門領(lǐng)導(dǎo)以及各企業(yè)代表齊聚一堂,共同見證這一榮耀時刻。
    的頭像 發(fā)表于 02-12 09:27 ?488次閱讀

    惠州隆利榮獲2024年仲高新區(qū)優(yōu)秀企業(yè)經(jīng)濟突出貢獻獎

    近日,在仲高新區(qū)高質(zhì)量發(fā)展大會暨優(yōu)秀企業(yè)授牌活動中,公司全資子公司惠州市隆利科技發(fā)展有限公司,榮獲2024年仲高新區(qū)優(yōu)秀企業(yè)經(jīng)濟突出貢獻獎。
    的頭像 發(fā)表于 02-07 11:30 ?680次閱讀

    YOLOv8中的損失函數(shù)解析

    YOLO長期以來一直是目標(biāo)檢測任務(wù)的首選模型之一。它既快速又準(zhǔn)確。此外,其API簡潔易用。運行訓(xùn)練或推斷作業(yè)所需的代碼行數(shù)有限。在2023年下半年,YOLOv8在框架中引入了姿態(tài)估計后,該框架現(xiàn)在支持最多四個
    的頭像 發(fā)表于 11-05 17:15 ?3933次閱讀
    YOLOv8中的損失函數(shù)解析

    淺談分割接地層的利弊

    如果分割接地層并且線路穿過分割線(如圖1所示)那么電流返回通路在哪里呢?假設(shè)兩個層在某處連接(通過在一個單獨點),則返回電流必在該大型環(huán)路內(nèi)流動。大型環(huán)路內(nèi)的高頻電流產(chǎn)生輻射和高接地電感。大型環(huán)路內(nèi)的低電平模擬電流易受干擾的影響。
    的頭像 發(fā)表于 10-30 10:09 ?611次閱讀
    淺談<b class='flag-5'>分割</b>接地層的利弊

    語義分割25種損失函數(shù)綜述和展望

    本綜述提供了對25種用于圖像分割的損失函數(shù)的全面且統(tǒng)一的回顧。我們提供了一種新穎的分類法,并詳細(xì)審查了這些損失函數(shù)如何在圖像分割中被定制和利用,強調(diào)了它們的重要特征和應(yīng)用,并進行了系統(tǒng)的分類。摘要
    的頭像 發(fā)表于 10-22 08:04 ?1625次閱讀
    語義<b class='flag-5'>分割</b>25種損失函數(shù)綜述和展望

    畫面分割器怎么調(diào)試

    畫面分割器,通常指的是視頻畫面分割器,它是一種可以將一個視頻信號分割成多個小畫面的設(shè)備。這種設(shè)備廣泛應(yīng)用于監(jiān)控系統(tǒng)、視頻會議、多畫面顯示等場景。調(diào)試畫面分割器是一個技術(shù)性很強的工作,需
    的頭像 發(fā)表于 10-17 09:32 ?1093次閱讀

    畫面分割器怎么連接

    畫面分割器,也稱為視頻分割器或多畫面處理器,是一種可以將多個視頻信號源分割成單個畫面或多個畫面顯示在單個監(jiān)視器上的設(shè)備。這種設(shè)備廣泛應(yīng)用于監(jiān)控系統(tǒng)、視頻會議、多媒體展示等領(lǐng)域。 一、畫面分割
    的頭像 發(fā)表于 10-17 09:29 ?1002次閱讀

    畫面分割器和視頻分配器有區(qū)別

    畫面分割器和視頻分配器是兩種不同的視頻處理設(shè)備,它們在視頻監(jiān)控系統(tǒng)中扮演著不同的角色。 1. 畫面分割器 畫面分割器,又稱為視頻分割器或多畫面處理器,是一種可以將多個視頻信號合并到一個
    的頭像 發(fā)表于 10-17 09:27 ?1524次閱讀

    畫面分割器有幾路主輸出

    畫面分割器,也稱為視頻分割器或多畫面處理器,是一種可以將一個視頻信號分割成多個獨立視頻畫面的設(shè)備。這種設(shè)備廣泛應(yīng)用于監(jiān)控系統(tǒng)、視頻會議、多媒體展示等領(lǐng)域,能夠?qū)⒍鄠€攝像頭的信號整合到一個顯示設(shè)備上
    的頭像 發(fā)表于 10-17 09:24 ?868次閱讀

    畫面分割器的主要功能

    畫面分割器,也稱為視頻分割器或多畫面分割器,是一種用于將多個視頻信號整合到一個顯示器上顯示的設(shè)備。這種設(shè)備廣泛應(yīng)用于監(jiān)控系統(tǒng)、視頻會議、指揮中心等場合,以便于用戶同時監(jiān)控多個視頻源。 畫面分割
    的頭像 發(fā)表于 10-17 09:22 ?1932次閱讀