一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于RGM的魯棒且通用的特征匹配

3D視覺(jué)工坊 ? 來(lái)源:計(jì)算機(jī)視覺(jué)工坊 ? 2023-11-27 11:32 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

作者:泡椒味的口香糖

0. 筆者個(gè)人體會(huì)

特征匹配包括稀疏匹配和稠密匹配,這方面的深度模型這兩年很多了,效果也都很好。但是同時(shí)實(shí)現(xiàn)稀疏匹配和稠密匹配的通用模型還比較少,主要是因?yàn)槁?lián)合訓(xùn)練會(huì)引入大量噪聲,模型架構(gòu)不好設(shè)計(jì)。而且相關(guān)的訓(xùn)練數(shù)據(jù)不好找,直接把幾個(gè)數(shù)據(jù)集堆一起訓(xùn)練又會(huì)出現(xiàn)各種各樣的域問(wèn)題。

最近,浙大就開(kāi)源了一項(xiàng)工作,以一個(gè)通用模型同時(shí)實(shí)現(xiàn)稀疏匹配和稠密匹配。筆者認(rèn)為,這篇文章的意義不是提出了一個(gè)最新的匹配模型,而在于通用模型的設(shè)計(jì)+訓(xùn)練思路。學(xué)習(xí)了這種思路,就可以將這種框架泛化到其他任務(wù)上。

1. 效果展示

浙大最新發(fā)布的RGM實(shí)現(xiàn)了一個(gè)通用模型,具體效果是同時(shí)實(shí)現(xiàn)稠密匹配和稀疏匹配。這里面的稠密匹配也就是光流匹配,還可以根據(jù)匹配關(guān)系投影RGB圖像做兩視角重建。

與其他SOTA方法相比,RGM估計(jì)的光流更細(xì)膩,邊緣更完整。

目前這篇文章已經(jīng)開(kāi)放了github,但是暫時(shí)代碼還沒(méi)有開(kāi)源,感興趣的小伙伴可以跟蹤一下。下面來(lái)看一下具體的論文信息。

2. 摘要

在一對(duì)圖像中尋找匹配的像素是具有各種應(yīng)用的基本計(jì)算機(jī)視覺(jué)任務(wù)。由于光流估計(jì)和局部特征匹配等不同任務(wù)的特定要求,以前的工作主要分為稠密匹配和稀疏特征匹配,側(cè)重于特定的體系結(jié)構(gòu)和特定任務(wù)的數(shù)據(jù)集,這可能在一定程度上阻礙了特定模型的泛化性能。在本文中,我們提出了一個(gè)稀疏和稠密匹配的深度模型,稱為RGM (魯棒通用匹配)。特別地,我們精心設(shè)計(jì)了一個(gè)級(jí)聯(lián)的GRU模塊,通過(guò)在多個(gè)尺度上迭代地探索幾何相似性來(lái)進(jìn)行細(xì)化,然后使用一個(gè)附加的不確定性估計(jì)模塊來(lái)進(jìn)行稀疏化。為了縮小合成訓(xùn)練樣本和真實(shí)世界場(chǎng)景之間的差距,我們通過(guò)以更大的間隔生成光流監(jiān)督,來(lái)構(gòu)建具有稀疏匹配真值的新的大規(guī)模數(shù)據(jù)集。因此,我們能夠混合各種稠密和稀疏匹配數(shù)據(jù)集,顯著提高訓(xùn)練多樣性。通過(guò)在大規(guī)?;旌蠑?shù)據(jù)上以兩階段的方式學(xué)習(xí)匹配和不確定性估計(jì),我們提出的RGM的泛化能力得到了極大的提高??缍鄠€(gè)數(shù)據(jù)集的zero-shot匹配和下游幾何估計(jì)實(shí)現(xiàn)了卓越的性能,大大超過(guò)了以前的方法。

3. 算法解析

RGM這篇文章的目的是要設(shè)計(jì)一個(gè)統(tǒng)一的框架來(lái)同時(shí)實(shí)現(xiàn)稠密匹配和稀疏匹配,但本身兩個(gè)任務(wù)的特性不同,直接設(shè)計(jì)多任務(wù)網(wǎng)絡(luò)效果不好。所以作者的思想就很巧妙,先設(shè)計(jì)一個(gè)光流稠密匹配網(wǎng)絡(luò),再緊跟一個(gè)稀疏化網(wǎng)絡(luò)。

整個(gè)Pipeline很直觀,可以分成特征提取、稠密匹配、稀疏化三個(gè)部分。首先將輸入圖像利用CNN和Transformer提取特征金字塔,然后使用級(jí)聯(lián)GRU的網(wǎng)絡(luò)進(jìn)行稠密匹配,之后通過(guò)不確定性估計(jì)來(lái)過(guò)濾得到稀疏匹配,匹配結(jié)果就可以直接用于位姿估計(jì)、兩視角重建等下游任務(wù)。

c24f1346-7566-11ee-939d-92fbcf53809c.png

這里面還有幾個(gè)細(xì)節(jié)需要注意:

1、為什么要提取特征金字塔,而不是使用某個(gè)特征層?

雖然感受野更大,但在1/8分辨率下會(huì)損失很多細(xì)節(jié)。作者這里使用的是{1/8,1/4,1/2}分辨率的三層金字塔,其中前兩層使用Swin-Transformer的自我注意和交叉注意進(jìn)行特征增強(qiáng)。

2、這個(gè)GRU模塊是啥?

這里也是一個(gè)trick,就是不在每個(gè)尺度上都建立圖像對(duì)的關(guān)聯(lián),而在金字塔的兩個(gè)底層建立局部關(guān)聯(lián)。對(duì)于1/8的低分辨率層執(zhí)行點(diǎn)積運(yùn)算:

c25acefc-7566-11ee-939d-92fbcf53809c.png

其中Fr和Ft是特征金字塔,D是維度。然后再用平均池化作為RAFT來(lái)構(gòu)建相關(guān)金字塔,給定當(dāng)前的光流估計(jì)f和半徑r,就可以構(gòu)建兩個(gè)高分辨率的特征融合計(jì)算:

c25f0fa8-7566-11ee-939d-92fbcf53809c.png

給定相關(guān)性和上下文信息,就可以估計(jì)運(yùn)動(dòng)信息并將其饋送給GRU優(yōu)化光流殘差,然后迭代得優(yōu)化光流:

c26702f8-7566-11ee-939d-92fbcf53809c.png

3、稀疏化如何實(shí)現(xiàn)?

在獲得稠密匹配之后,可以直接凍結(jié)匹配網(wǎng)絡(luò)并開(kāi)始稀疏化。根據(jù)估計(jì)出的光流可以warp特征圖和RGB圖計(jì)算差異。然后將差值送給CNN計(jì)算損失,具體是根據(jù)mask真值計(jì)算的二進(jìn)制交叉熵:

c26b4a7a-7566-11ee-939d-92fbcf53809c.png

4、為什么要解耦訓(xùn)練?

具體訓(xùn)練過(guò)程是先訓(xùn)練匹配網(wǎng)絡(luò),然后凍結(jié)這部分,再單獨(dú)訓(xùn)練稀疏化網(wǎng)絡(luò)。作者認(rèn)為直接聯(lián)合訓(xùn)練的話,會(huì)引入大量噪聲,導(dǎo)致光流預(yù)測(cè)不準(zhǔn)確。

4. 實(shí)驗(yàn)

RGM的訓(xùn)練分匹配學(xué)習(xí)+不確定學(xué)習(xí)兩階段進(jìn)行,也就是所謂的解耦訓(xùn)練。

在匹配學(xué)習(xí)階段,首先使用帶稀疏匹配真值的MegaDepth(1.4 M對(duì)圖像)來(lái)訓(xùn)練(200k次迭代),然后使用ScanNet+FlyingThings3D+TartanAir+MegaDepth的混合數(shù)據(jù)集(4 M對(duì)圖像)進(jìn)行增強(qiáng)學(xué)習(xí)(240k次迭代)。Batch size為16,學(xué)習(xí)率從2e-4余弦退火至1e-5。在不確定學(xué)習(xí)階段,直接凍結(jié)稠密匹配網(wǎng)絡(luò)的參數(shù)。在MegaDepth和ScanNet上訓(xùn)練了2個(gè)epoch,batch size為4,學(xué)習(xí)率固定1e-4。注意,為了平衡不同數(shù)據(jù)集之間的差異,還對(duì)TartanAir進(jìn)行了大間距采樣。

評(píng)估也是一個(gè)零樣本泛化實(shí)驗(yàn)。匹配估計(jì)使用ETH3D+HPatches+KITTI+TUM數(shù)據(jù)集,位姿估計(jì)(下游任務(wù))使用TUM+YFCC數(shù)據(jù)集,光流估計(jì)使用Sintel數(shù)據(jù)集。

首先是解耦訓(xùn)練和聯(lián)合訓(xùn)練的對(duì)比,證明他們做提出的解耦訓(xùn)練是有效的??吹竭@里筆者也有個(gè)疑問(wèn),有的模型是聯(lián)合訓(xùn)練效果更好,有的模型卻是解耦訓(xùn)練更好,希望有小伙伴能傳授一下經(jīng)驗(yàn)。

c276b266-7566-11ee-939d-92fbcf53809c.png

訓(xùn)練使用數(shù)據(jù)集的對(duì)比,顯然使用的數(shù)據(jù)集越多效果越好。

c27a937c-7566-11ee-939d-92fbcf53809c.png

特征匹配最直觀的定性對(duì)比,相同顏色代表預(yù)測(cè)的匹配關(guān)系。相較于之前的SOTA方法可以取得更多的匹配關(guān)系,而且語(yǔ)義預(yù)測(cè)也更好(大部分匹配關(guān)系都集中在摩托車和人上)。

光流估計(jì)的對(duì)比,也是一個(gè)zero-shot實(shí)驗(yàn)。對(duì)比方案包括光流專用模型、稠密幾何估計(jì)方法,還有通用匹配模型,RDM效果最優(yōu)。這里也推薦「3D視覺(jué)工坊」新課程如何學(xué)習(xí)相機(jī)模型與標(biāo)定?(代碼+實(shí)戰(zhàn))》。

c28ecbee-7566-11ee-939d-92fbcf53809c.png

最后是一個(gè)在TUM和YFCC上進(jìn)行位姿估計(jì)的zero-shot評(píng)估,也是匹配性能的進(jìn)一步驗(yàn)證。

c29d6780-7566-11ee-939d-92fbcf53809c.png

5. 總結(jié)

一句話總結(jié):RGM以一個(gè)通用模型同時(shí)實(shí)現(xiàn)了稀疏和稠密匹配。具體創(chuàng)新點(diǎn)是級(jí)聯(lián)GRU細(xì)化模塊+用于稀疏化的不確定性估計(jì)模塊+解耦訓(xùn)練機(jī)制。除了評(píng)估特征匹配的精度,作者還做了很多下游任務(wù)的評(píng)估,比如位姿估計(jì)、兩視角重建。感覺(jué)這篇文章還在審稿中,后續(xù)應(yīng)該會(huì)上傳新版本的文章和代碼。

審核編輯:黃飛

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • Gru
    Gru
    +關(guān)注

    關(guān)注

    0

    文章

    12

    瀏覽量

    7649
  • 特征提取
    +關(guān)注

    關(guān)注

    1

    文章

    29

    瀏覽量

    9967
  • 匹配網(wǎng)絡(luò)
    +關(guān)注

    關(guān)注

    0

    文章

    13

    瀏覽量

    9951

原文標(biāo)題:浙大最新開(kāi)源RGM | 魯棒且通用的特征匹配!

文章出處:【微信號(hào):3D視覺(jué)工坊,微信公眾號(hào):3D視覺(jué)工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    數(shù)據(jù)傳輸方案

    MS-2511:集成信號(hào)和電源隔離提供緊湊的測(cè)量與控制
    發(fā)表于 09-04 11:12

    自適應(yīng)控制綜述A survey of robust ad

    討論了自適應(yīng)控制的產(chǎn)生,現(xiàn)有的自適應(yīng)控制方案及發(fā)展方向。關(guān)鍵詞:性; 自適應(yīng)控制;
    發(fā)表于 05-25 10:27 ?40次下載

    性是什么意思_Robust為什么翻譯成

    性的定義 性是什么意思?頭一次看到這個(gè)詞的你可能會(huì)想歪(邪惡的笑臉)。但其實(shí)性是一個(gè)
    發(fā)表于 11-29 09:08 ?12.9w次閱讀
    <b class='flag-5'>魯</b><b class='flag-5'>棒</b>性是什么意思_Robust為什么翻譯成<b class='flag-5'>魯</b><b class='flag-5'>棒</b>性

    性和穩(wěn)定性的區(qū)別

    性和穩(wěn)定性都是反應(yīng)控制系統(tǒng)抗干擾能力的參數(shù)。那么關(guān)于性和穩(wěn)定性的區(qū)別有哪些,我們先來(lái)看看兩者的定義。 定義上 所謂
    發(fā)表于 11-29 09:39 ?24.7w次閱讀

    Linux的性度量詳解及性關(guān)聯(lián)測(cè)試分析

    軟件(或軟件構(gòu)件)性是衡量軟件在異常輸入和應(yīng)力環(huán)境條件下保持正常工作能力的一種度量。性測(cè)試主要用于測(cè)試操作系統(tǒng)、應(yīng)用程序、COTS軟件、構(gòu)件及服務(wù)協(xié)議等軟件和協(xié)議的可靠性及健壯
    發(fā)表于 12-02 09:29 ?4976次閱讀
     Linux的<b class='flag-5'>魯</b><b class='flag-5'>棒</b>性度量詳解及<b class='flag-5'>魯</b><b class='flag-5'>棒</b>性關(guān)聯(lián)測(cè)試分析

    基于偏最小二乘回歸的特征選擇與分類算法

    提出一種基于偏最小二乘回歸的特征選擇與分類算法( RFSC-PLSR)用于解決特征選擇中特征之間的冗余和多重共線性問(wèn)題。首先,定義一個(gè)
    發(fā)表于 12-05 18:44 ?1次下載
    基于偏最小二乘回歸的<b class='flag-5'>魯</b><b class='flag-5'>棒</b>性<b class='flag-5'>特征</b>選擇與分類算法

    基于導(dǎo)彈視頻特征匹配

    ,依據(jù)準(zhǔn)確性和實(shí)時(shí)性兩個(gè)原則,對(duì)快速特征算法做了兩方面的改進(jìn):一是限制特征點(diǎn)提取區(qū)域,定義了圖像區(qū)域限制算子;二是限制特征點(diǎn)數(shù)量,利用
    發(fā)表于 12-06 13:58 ?1次下載
    基于導(dǎo)彈視頻<b class='flag-5'>特征</b><b class='flag-5'>匹配</b>

    如何吧具有光照進(jìn)行圖像匹配詳細(xì)方法說(shuō)明

    針對(duì)現(xiàn)有的基于局部特征的圖像匹配算法對(duì)光照變化敏感、匹配正確率低等問(wèn)題,提出一種具有光照性的圖像匹配
    發(fā)表于 05-06 15:42 ?14次下載
    如何吧具有光照<b class='flag-5'>魯</b><b class='flag-5'>棒</b>進(jìn)行圖像<b class='flag-5'>匹配</b>詳細(xì)方法說(shuō)明

    如何才能解決圖像匹配算法的光照變化敏感和匹配正確率低的問(wèn)題

    針對(duì)現(xiàn)有的基于局部特征的圖像匹配算法對(duì)光照變化敏感、匹配正確率低等問(wèn)題,提出一種具有光照性的圖像匹配
    發(fā)表于 11-14 15:16 ?12次下載
    如何才能解決圖像<b class='flag-5'>匹配</b>算法的光照變化敏感和<b class='flag-5'>匹配</b>正確率低的問(wèn)題

    使用光照實(shí)現(xiàn)圖像匹配的方法詳細(xì)概述

    針對(duì)現(xiàn)有的基于局部特征的圖像匹配算法對(duì)光照變化敏感、匹配正確率低等問(wèn)題,提出一種具有光照性的圖像匹配
    發(fā)表于 11-23 17:46 ?7次下載

    一種長(zhǎng)時(shí)自適應(yīng)目標(biāo)跟蹤算法

    傳統(tǒng)相關(guān)濾波方法在目標(biāo)運(yùn)動(dòng)模糊和光照變化上取得了一定的效果,但當(dāng)目標(biāo)存在形變、顏色變化、重度遮擋等干擾因素時(shí)難以實(shí)現(xiàn)跟蹤,性差,當(dāng)
    發(fā)表于 04-23 14:31 ?7次下載
    一種<b class='flag-5'>魯</b><b class='flag-5'>棒</b>長(zhǎng)時(shí)自適應(yīng)目標(biāo)跟蹤算法

    面向SLAM應(yīng)用提出了基于RGB特征點(diǎn)提取算法

    視覺(jué)SLAM(Simultaneous Localization And Mapping)的關(guān)鍵是建立圖像間特征點(diǎn)匹配關(guān)系,其決定著攝像機(jī)運(yùn)動(dòng)參數(shù)的求解精度和目標(biāo)點(diǎn)三維世界坐標(biāo)重
    的頭像 發(fā)表于 09-23 10:31 ?1564次閱讀

    一文淺談性(Robustness)

    性(Robustness)
    的頭像 發(fā)表于 10-16 09:50 ?2550次閱讀

    性的含義以及如何提高模型的性?

    性的含義以及如何提高模型的性? 什么是性?
    的頭像 發(fā)表于 10-29 11:21 ?4647次閱讀

    如何提高系統(tǒng)的

    在當(dāng)今的技術(shù)環(huán)境中,系統(tǒng)面臨著各種挑戰(zhàn),包括硬件故障、軟件缺陷、網(wǎng)絡(luò)攻擊和人為錯(cuò)誤。性是指系統(tǒng)在面對(duì)這些挑戰(zhàn)時(shí)保持正常運(yùn)行的能力。 一、定義
    的頭像 發(fā)表于 11-11 10:17 ?2476次閱讀