一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一種融合語義不變量的點線立體SLAM系統(tǒng)

3D視覺工坊 ? 來源:3D視覺工坊 ? 2023-09-01 17:16 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

作者:魚骨 | 來源:3D視覺工坊

摘要

傳統(tǒng)的同步定位與制圖(SLAM)系統(tǒng)使用環(huán)境的靜態(tài)點作為實時定位和制圖的特征。當(dāng)可用的點特征很少時,系統(tǒng)很難實現(xiàn)。一個可行的解決方案是引入線特征。在包含豐富線段的復(fù)雜場景中,線段的描述差別不大,這可能導(dǎo)致線段數(shù)據(jù)的不正確關(guān)聯(lián),從而將誤差引入系統(tǒng)并加劇系統(tǒng)的累積誤差。針對這一問題,本文提出了一種結(jié)合語義不變量的點線立體視覺SLAM系統(tǒng)。該系統(tǒng)通過融合線特征和圖像語義不變信息,提高了線特征匹配的準(zhǔn)確性。在定義誤差函數(shù)時,將語義不變量與重投影誤差函數(shù)融合,并應(yīng)用語義約束減少長期跟蹤過程中姿態(tài)的累積誤差。在TartanAir數(shù)據(jù)集和KITTI數(shù)據(jù)集的Office序列上的實驗表明,該系統(tǒng)在一定程度上提高了直線特征的匹配精度,抑制了SLAM系統(tǒng)的累積誤差,平均相對位姿誤差(RPE)分別為1.38和0.0593米。

總結(jié):

(1)提出了一種結(jié)合語義不變量的點線立體視覺SLAM系統(tǒng)

(2)將語義不變量與重投影誤差函數(shù)融合定義誤差函數(shù),并應(yīng)用語義約束減少長期跟蹤過程中姿態(tài)的累積誤差

(3)TartanAir數(shù)據(jù)集和KITTI數(shù)據(jù)集

引言

自工業(yè)4.0推出以來,機器人主導(dǎo)的智能制造產(chǎn)業(yè)已成為工業(yè)發(fā)展的支柱。視覺同步定位和映射(SLAM)系統(tǒng)是允許機器人探索未知環(huán)境、自我定位和構(gòu)建地圖的核心組件。視覺SLAM依靠廉價的輕型攝像機,可以有效地感知環(huán)境的外觀,這使得僅依賴視覺傳感器的SLAM系統(tǒng)成為機器人領(lǐng)域的熱點問題。視覺SLAM系統(tǒng)的框架正在走向成熟。盡管視覺SLAM的研究領(lǐng)域已經(jīng)取得了很大的進展,然而真實環(huán)境的可變性使得數(shù)據(jù)關(guān)聯(lián)的準(zhǔn)確性不可靠甚至無效。這導(dǎo)致系統(tǒng)的魯棒性降低,難以滿足實際需求。因此,如何提高數(shù)據(jù)關(guān)聯(lián)的魯棒性,對于減少視覺SLAM的累積誤差,提高系統(tǒng)的整體魯棒性具有重要意義。根據(jù)所采用的跟蹤方法,將視覺SLAM系統(tǒng)分為直接跟蹤和間接跟蹤兩種方法?;谥苯痈櫟姆椒?,如大尺度直接單目SLAM (LSD-SLAM)、直接稀疏里程計(DSO)和半直接單目視覺里程計(SVO),是基于最小化光度投影誤差的姿態(tài)估計方法。這些方法對光照變換很敏感,對單個像素的區(qū)分很差。相比之下,基于間接跟蹤的方法通過跟蹤圖像的點特征估計相機的姿態(tài)。代表性算法有并行跟蹤與映射(PTAM)、ORB-SLAM2、RGBD SLAM-v2等。在強紋理場景中,點特征對光照不敏感,易于提取。然而,在低紋理環(huán)境或運動模糊的場景中,提取是困難的。影響系統(tǒng)的魯棒性,嚴(yán)重時可能導(dǎo)致系統(tǒng)失效。在實際環(huán)境中,有大量的線特征具有與點特征相同的不變光照和視點特征,且易于提取。因此,可以克服低紋理場景造成的干擾,反映環(huán)境結(jié)構(gòu)的完整信息。因此,涉及跟蹤線特征的SLAM系統(tǒng)誕生了。線特征對遮擋很敏感,在缺乏紋理或高重復(fù)的區(qū)域不具有很強的識別能力,這導(dǎo)致匹配失敗,比只依賴點特征的SLAM系統(tǒng)更不可靠的位姿求解。直線特征的跟蹤非常耗時,不能滿足SLAM系統(tǒng)的實時性要求。因此,點和線特征融合被應(yīng)用到SLAM系統(tǒng)中。

為了減少累積誤差的產(chǎn)生,現(xiàn)有的解決方案是通過在短期內(nèi)建立多幀圖像之間的約束,對位姿進行局部優(yōu)化,減少軌跡漂移。當(dāng)約束失敗時,誤差仍然會累積。另一種解決方案是采用閉環(huán)來建立一個長期約束來糾正累積誤差,但這種解決方案嚴(yán)格依賴閉環(huán)檢測。

近年來計算機圖像技術(shù)的快速發(fā)展,如深度學(xué)習(xí)、目標(biāo)檢測、語義分割等,為機器人提高場景理解提供了更多的可能性。語義分割是一種像素級分類技術(shù)。圖像中的每個像素被劃分為相應(yīng)的類別。在SLAM系統(tǒng)中應(yīng)用語義分割來提高數(shù)據(jù)關(guān)聯(lián)的魯棒性是一個比較熱門的研究課題。在SLAM系統(tǒng)中,隨著時間的推移,相機的運動會導(dǎo)致視點、尺度和光照等特征的變化,但語義描述不會發(fā)生變化。比如在汽車上跟蹤線段時,由于距離的變化,線段周圍的像素發(fā)生了劇烈的變化,這導(dǎo)致跟蹤失敗。但是這條線段的語義描述屬于汽車類,不受尺度和光照變化的影響。然后將線段的語義描述視為不變的,通過線段語義標(biāo)簽的一致性約束及其重投影特征建立線段的中期跟蹤。

目前,線段相關(guān)的理論發(fā)展還不夠成熟,主要表現(xiàn)在線段描述不夠準(zhǔn)確,這可能導(dǎo)致在包含許多線段的復(fù)雜場景中出現(xiàn)錯誤的數(shù)據(jù)關(guān)聯(lián)。這就導(dǎo)致了在基于點-線特征的SLAM系統(tǒng)中引入線段后,線段的匹配精度較低,導(dǎo)致系統(tǒng)誤差積累。

?本文提出了一種結(jié)合語義不變量的點和線特征的魯棒立體SLAM系統(tǒng)。

?提出了一種改進的線段匹配方法。將語義分割的結(jié)果應(yīng)用到線段匹配中,提高了線段的數(shù)據(jù)關(guān)聯(lián)。

?定義線段的語義重投影誤差函數(shù),并將其應(yīng)用于位姿優(yōu)化過程,以提高數(shù)據(jù)關(guān)聯(lián)的魯棒性。實現(xiàn)了線段的中期跟蹤,減少了軌跡漂移問題。

系統(tǒng)概述

本文以立體點線SLAM系統(tǒng)為基礎(chǔ),針對線段引入后,線段的不匹配直接影響數(shù)據(jù)關(guān)聯(lián)的準(zhǔn)確性,加劇了系統(tǒng)的累積誤差的問題。提出了一種有效的改進方法。該方法使用語義不變量為線段匹配提供約束,減少了線段特征失配的產(chǎn)生。定義了線段的語義重投影誤差函數(shù),實現(xiàn)了線段的中期跟蹤,有效地減少了軌跡漂移,提高了系統(tǒng)的魯棒性。如下圖所示為提出的系統(tǒng)的總體結(jié)構(gòu)。該系統(tǒng)遵循ORB-SLAM2框架,整個SLAM任務(wù)按照可視化里程計、局部映射和閉環(huán)三個線程并行運行。

wKgZomTxrAOAPsjlAAFKl3fqlOU785.png

在本文中,語義分割的結(jié)果主要應(yīng)用于視覺里程測量和局部姿態(tài)優(yōu)化。如下圖所示,系統(tǒng)接收到圖像序列,然后進行點和線特征的提取和匹配。由于點特征的提取和匹配方法比線段更完備,語義分割結(jié)果只適用于線段的關(guān)聯(lián)。在現(xiàn)有線段關(guān)聯(lián)方法的基礎(chǔ)上,利用語義分割的結(jié)果對線段進行語義分類。這提供了線段關(guān)聯(lián)的語義不變約束,減少了不正確的數(shù)據(jù)關(guān)聯(lián)。當(dāng)獲得點特征和線特征的關(guān)聯(lián)結(jié)果時,將局部地圖中的地標(biāo)(點和線段)分別投影到當(dāng)前幀及其對應(yīng)的語義分割圖像中。然后,通過最小化重投影誤差項和重投影誤差項的聯(lián)合語義不變量來進行姿態(tài)優(yōu)化。

wKgZomTxrAOAPJY1AADD11ugtpg056.png

方法

在本節(jié)中,我們首先介紹LSD算法提取線段的預(yù)處理細(xì)節(jié),以及如何應(yīng)用語義分割的結(jié)果約束線段的數(shù)據(jù)關(guān)聯(lián)。然后描述了利用語義不變量建立點、線特征的中期數(shù)據(jù)關(guān)聯(lián)后,如何進行位姿優(yōu)化的問題。

1、線段的預(yù)處理與關(guān)聯(lián)

線段提取采用LSD算法。LSD算法是一種局部直線檢測算法,可以在不調(diào)整參數(shù)的情況下快速提取圖像的局部直線輪廓。然而,由于遮擋或部分模糊等原因,線段被分割成幾條直線。為了解決這一問題,本文采用[18]文獻中的方法對折線段進行合并。折線段是否滿足合并條件由端點之間的距離和線段之間的距離共同決定。刪除合并后不符合長度閾值的線段。當(dāng)預(yù)處理完成后,該方法對線段進行語義分類。線段是否屬于語義范疇的判定原則如下:

(1)檢測到的線段在類別區(qū)域的長度大于閾值d;

(2)如果檢測到的線段位于多個語義類別的邊界,則將其標(biāo)記為概率最高的類別。

利用Detectron2對圖像進行語義分割預(yù)測。預(yù)測由地面和非地面組成。然后,根據(jù)上述規(guī)則對線段進行分類。分類結(jié)果如圖5所示。

wKgaomTxrAOASWNEAANLRT76j1s026.png

線段的數(shù)據(jù)關(guān)聯(lián)應(yīng)保證線段屬于同一語義類,具有較高的相關(guān)性。線段的相關(guān)性由線段的局部外觀描述確定,該描述由LBD描述符提供。

2、點和線重投影誤差函數(shù)的語義不變量融合

在SLAM系統(tǒng)中,減少軌跡累積誤差主要有兩種方法。一是通過幀間數(shù)據(jù)關(guān)聯(lián)優(yōu)化姿態(tài),減少軌跡漂移,這是一個短期約束。另一種方法依靠閉環(huán)檢測進行位姿校正,在圖像框架中建立長期約束。VSO利用圖像的語義分割信息建立點對的中期數(shù)據(jù)關(guān)聯(lián)。線段也具有語義不變性。因此,我們的方法利用這一性質(zhì)來建立線段上的中期數(shù)據(jù)關(guān)聯(lián)。圖6給出了攝像機運動過程中點與線特征的數(shù)據(jù)關(guān)聯(lián)過程。紅線表示視覺里程計框架中基于外觀的特性約束,綠線表示基于語義的約束。攝像頭1和攝像頭2可以建立基于外觀的特征約束和基于語義的特征約束。在攝像機移動過程中,由于對特征外觀的描述發(fā)生了劇烈的變化,在第k個攝像機中只能觀察到特征的語義約束。與基于外觀的約束相比,這種語義約束可以為特征數(shù)據(jù)關(guān)聯(lián)提供更長期的約束,這被稱為特征的中期跟蹤。

wKgaomTxrAOAWK1CAAEMkF3JxOs467.png

我們將語義不變量與重投影誤差結(jié)合起來定義了一個誤差函數(shù):

wKgaomTxrAOAEsExAAAIpbdfPfg957.png

其中Ebase是重投影誤差,Esem是融合語義不變量的誤差函數(shù)。通過最小化誤差函數(shù),實現(xiàn)了點特征和線特征的中期跟蹤,減少了軌跡的漂移。

(1)Ebase的定義

基于點線特征的立體SLAM系統(tǒng)通常通過最小化重投影誤差,給定輸入wKgaomTxrAOAE_d3AAAGxEHbSQ4490.png,對應(yīng)的位姿wKgaomTxrAOAYThfAAAG-jJqIh0040.png,三維點wKgZomTxrASAGw0IAAACvIBohlM625.png,三維線段wKgZomTxrASAcuX3AAACoadIVOU167.png來實現(xiàn)局部姿態(tài)優(yōu)化。重投影誤差函數(shù)Ebase定義如下:

wKgZomTxrASAP0c2AAAJFUgxILY273.png

其中Ep和EL分別表示點特征和線段的重投影誤差,Ep是第i個三維點的觀測值wKgaomTxrASAZqSeAAACgEjPiFY629.png與其在第k個關(guān)鍵幀上的投影之間的距離為:

wKgaomTxrASAQNRdAAAMXbIrbyg951.png

其中π(·)為三維點Pi的重投影坐標(biāo),k為攝像機的本征矩陣,Tk是相對運動矩陣。

由于遮擋或其他原因,線段的端點出現(xiàn)了不確定性。因此,線段的重投影誤差函數(shù)不能簡單地用觀測線與其重投影之間的坐標(biāo)距離來定義。更精確的方法是使用文獻[19]中的方法,其中線段的重投影誤差定義為投影線段的端點與被測直線之間的垂直距離之和。如圖7所示,lo表示線段的觀測值,lp表示三維線段的重投影,wKgZomTxrASABkPbAAACfd9CA2o304.png和表示直線重投影誤差。因此,EL定義為:

wKgZomTxrASAT_AVAAAJMHhOGAI547.png

wKgZomTxrASAN_pnAAB3GTlkYSQ188.png

(2)Eseg的定義

融合語義不變量的誤差函數(shù)描述了點和線特征在重投影后屬于C類的概率。與VSO中闡述的現(xiàn)象一致,在攝像機運動過程中,由于周圍的像素信息,特征會發(fā)生劇烈變化。因此,在數(shù)據(jù)關(guān)聯(lián)中,特征的這一部分的約束就消失了。相比之下,特征的語義描述在尺度變化時保持不變。因此,將這種語義不變性應(yīng)用到數(shù)據(jù)關(guān)聯(lián)中,建立特征約束,延長特征的有效跟蹤時間,減少累積誤差的產(chǎn)生。

對于輸入的wKgaomTxrASAVSsrAAAGMlefn1c145.png,進行語義分割,對應(yīng)的語義分割圖像是wKgaomTxrASAU_IFAAAHRyL2nVc519.png。對于Is中的每一個像素有一個類別C。然后,對于投影到Isk的一個三維點P?i?,投影坐標(biāo)為μ?i?,投影坐標(biāo)有一個語義類別μ?i?∈c,其中c是C的一個子類別。在VSO中定義了基于點特征的語義觀測概率模型:

wKgZomTxrASAcwPnAAAXFKFU6kc610.png

其中wKgaomTxrASAD085AAADVDDhw6o288.png表示從投影坐標(biāo)μi到語義類別C最近邊界的距離。σ描述語義類別C的不確定性,則點特征融合語義不變量上的誤差函數(shù)可定義為:

wKgaomTxrASAQ1EZAAAphssuokc107.png

其中,wKgaomTxrASAT-EHAAACcTP1v98859.png為類別概率向量,描述了Pi被一系列攝像機觀測到的情況,并且類別屬于C。這將導(dǎo)致:

wKgZomTxrASAA0yrAAAR6kxKQYw452.png

其中α是用于保證wKgZomTxrASAT0hxAAAF5WouppI070.png的常數(shù)。

同樣,對于一個三維線段Lj,它在Isk的投影也會使所投影的線段Lj具有一個語義類別j∈C。通過計算投影線段的兩個端點以及線段中點到語義類C最近邊界的距離來描述重投影線段屬于語義類C的概率??梢源_定線段中點離C最近邊界的距離越小,線段屬于C類的可能性越大。為了確保大多數(shù)線段屬于C類,到語義區(qū)域最近邊界距離最小的端點也應(yīng)該被聯(lián)合考慮。

wKgZomTxrASABnDNAAAaWgSWlEE423.png

其中,dm和de分別表示從中點和端點到邊界的距離。

因此,投影線段屬于C類的概率用投影線段的中點和端點到C類邊界的距離來描述。線段的語義似然模型定義如下:

wKgZomTxrASAL-IcAAAeAOFM0Js433.png

線段融合語義不變量的誤差可定義為:

wKgaomTxrASADj-AAAAw2ziGhDc387.png

其中為類別概率向量,描述一系列攝像機觀測到的線段Lj,類別屬于C的情況:

wKgaomTxrASAROHUAAASuIyQ9JI626.png

聯(lián)合語義不變量的誤差函數(shù)定義如下:

wKgZomTxrASABnJbAAAJlJFWG9o775.png

實驗

本節(jié)通過一系列的實驗來驗證本文提出的系統(tǒng)的有效性。利用彩色圖像進行語義分割是十分必要的。因此,使用公開可用的TartanAir數(shù)據(jù)集和KITTI數(shù)據(jù)集執(zhí)行驗證,這兩個數(shù)據(jù)集都提供了ground-truth的顏色序列。TartanAir數(shù)據(jù)集是一個室內(nèi)場景數(shù)據(jù)集,KITTI數(shù)據(jù)集是一個室外場景數(shù)據(jù)集。我們將我們的方法與幾種最先進的方法進行了比較,包括ORB-SLAM2和PL-SLAM。所有實驗都是在一臺CPUIntel i5-4200U、內(nèi)存為4GB、操作系統(tǒng)為Ubuntu 16.04的筆記本電腦上進行的。語義分割結(jié)果是使用Facebook AI Research推出的Detectron2算法得到的。實驗結(jié)果表明:

(1)添加語義不變量后,線段之間的不匹配明顯降低,線段匹配的準(zhǔn)確率提高。

(2)在沒有動態(tài)目標(biāo)干擾的室內(nèi)場景中,該方法能較好地抑制軌跡漂移

(3)將語義不變性的結(jié)果應(yīng)用于戶外場景的SLAM系統(tǒng)并不一定能有效地減少系統(tǒng)的軌跡漂移。產(chǎn)生這種結(jié)果的原因可能是室外場景的語義分割精度不夠高,語義類別劃分不夠精細(xì),以及受到動態(tài)對象的影響。

(4)我們的系統(tǒng)基本能夠滿足實時性的要求。

結(jié)論

本文提出了一種融合語義不變量的點線立體SLAM系統(tǒng)。為了提高線段數(shù)據(jù)關(guān)聯(lián)的準(zhǔn)確性,給出了線段的語義類別標(biāo)簽。通過聯(lián)合語義不變量定義線段上的重投影誤差函數(shù),實現(xiàn)線段的中期跟蹤,使系統(tǒng)在進行局部優(yōu)化時獲得更好的結(jié)果,減少了軌跡中累積誤差的產(chǎn)生。在TartanAir數(shù)據(jù)集和KITTI數(shù)據(jù)集上驗證了該方法的有效性。將實驗結(jié)果與ORB-SLAM2和PL-SLAM系統(tǒng)進行了比較。結(jié)果表明,該算法能有效地提高系統(tǒng)的魯棒性,減少大部分序列的軌跡漂移。但是,由于對語義分割信息進行了預(yù)處理,在系統(tǒng)中沒有對原始圖像進行直接的實時分割。因此,后續(xù)將考慮實時語義分割的應(yīng)用,進一步提高系統(tǒng)的完整性。

審核編輯:湯梓紅

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 傳感器
    +關(guān)注

    關(guān)注

    2564

    文章

    52805

    瀏覽量

    765534
  • 機器人
    +關(guān)注

    關(guān)注

    213

    文章

    29627

    瀏覽量

    212219
  • 函數(shù)
    +關(guān)注

    關(guān)注

    3

    文章

    4378

    瀏覽量

    64559
  • SLAM
    +關(guān)注

    關(guān)注

    24

    文章

    438

    瀏覽量

    32425

原文標(biāo)題:結(jié)合語義不變量的點線立體視覺SLAM系統(tǒng)

文章出處:【微信號:3D視覺工坊,微信公眾號:3D視覺工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    基于多模態(tài)語義SLAM框架

    本文提出了個魯棒且快速的多模態(tài)語義 SLAM 框架,旨在解決復(fù)雜和動態(tài)環(huán)境中的 SLAM 問題。具體來說,將僅幾何聚類和視覺語義信息相結(jié)合
    的頭像 發(fā)表于 08-31 09:39 ?2129次閱讀

    一種自動的輪轂識別分類方法

    本文描述了一種運用統(tǒng)計模式識別方法自動識別多種車型輪轂的方法。構(gòu)造了四個具有平移不變性、比例不變性和幅度線性變換不變性的
    發(fā)表于 02-21 10:45 ?20次下載

    一種多徑環(huán)境下的調(diào)制識別算法

    針對多徑環(huán)境下MPSK和MQAM信號的調(diào)制分類問題給出了一種有效的自動識別算法,利用組穩(wěn)健的抗多徑的累量不變量和自適應(yīng)盲均衡算法的代價函數(shù)作為識別特征。當(dāng)盲均衡器與接收
    發(fā)表于 07-17 14:53 ?7次下載

    基于不變量的軟錯誤檢測方法

    軟錯誤是高輻照空間環(huán)境下影響計算可靠性的主要因素,結(jié)果錯誤(silent data corruption,簡稱SDC)是軟錯誤造成的一種特殊的故障類型.針對SDC難以檢測的問題。提出了一種基于不變量
    發(fā)表于 01-17 14:00 ?0次下載

    高仙SLAM具體的技術(shù)是什么?SLAM2.0有哪些優(yōu)勢?

    高仙的SLAM2.0技術(shù)體系核心,是基于多傳感器融合+深度學(xué)習(xí)的架構(gòu),即語義SLAM。高仙SLAM2.0技術(shù)方案以
    的頭像 發(fā)表于 05-15 16:48 ?9306次閱讀

    一種融合語義模型的二分網(wǎng)絡(luò)推薦算法

    當(dāng)前基于二分網(wǎng)絡(luò)的推薦算法未考慮推薦對象之間的語義關(guān)系,因此文中提出一種融合語義模型的二分網(wǎng)絡(luò)推薦算法。該算法利用作者主題模型將推薦對象的語乂信息降維至二維向量空間;然后計算推薦對象之
    發(fā)表于 04-28 13:53 ?4次下載
    <b class='flag-5'>一種</b><b class='flag-5'>融合</b><b class='flag-5'>語義</b>模型的二分網(wǎng)絡(luò)推薦算法

    基于視覺傳感器的ORB-SLAM系統(tǒng)的學(xué)習(xí)

    視覺SLAM一種基于視覺傳感器的 SLAM 系統(tǒng),與激光傳感器相比,視覺傳感器具有成本低、保留環(huán)境語義信息的優(yōu)點,能夠與深度學(xué)習(xí)進行大量結(jié)
    的頭像 發(fā)表于 11-02 15:02 ?1344次閱讀

    一種快速的激光視覺慣導(dǎo)融合slam系統(tǒng)

    個建立在兩個基于直接法的緊耦合的完整的激光視覺慣導(dǎo)融合slam框架;
    的頭像 發(fā)表于 11-09 09:55 ?1808次閱讀

    基于視覺傳感器的SLAM系統(tǒng)學(xué)習(xí)

    視覺SLAM一種基于視覺傳感器的 SLAM 系統(tǒng),與激光傳感器相比,視覺傳感器具有成本低、保留環(huán)境語義信息的優(yōu)點,能夠與深度學(xué)習(xí)進行大量結(jié)
    發(fā)表于 11-29 21:38 ?1013次閱讀

    一種端到端的立體深度感知系統(tǒng)的設(shè)計

    ? ? 本文提出了一種生產(chǎn)化的端到端立體深度感知系統(tǒng)設(shè)計,可以完成預(yù)處理、在線立體校正和立體深度估計,并支持糾偏失敗后的單目深度估計備選方案
    的頭像 發(fā)表于 05-26 16:12 ?996次閱讀
    <b class='flag-5'>一種</b>端到端的<b class='flag-5'>立體</b>深度感知<b class='flag-5'>系統(tǒng)</b>的設(shè)計

    個動態(tài)環(huán)境下的實時語義RGB-D SLAM系統(tǒng)

    大多數(shù)現(xiàn)有的視覺SLAM方法嚴(yán)重依賴于靜態(tài)世界假設(shè),在動態(tài)環(huán)境中很容易失效。本文提出了個動態(tài)環(huán)境下的實時語義RGB-D SLAM系統(tǒng),該
    的頭像 發(fā)表于 08-25 16:49 ?1022次閱讀
    <b class='flag-5'>一</b>個動態(tài)環(huán)境下的實時<b class='flag-5'>語義</b>RGB-D <b class='flag-5'>SLAM</b><b class='flag-5'>系統(tǒng)</b>

    一種基于RGB-D圖像序列的協(xié)同隱式神經(jīng)同步定位與建圖(SLAM)系統(tǒng)

    提出了一種基于RGB-D圖像序列的協(xié)同隱式神經(jīng)同步定位與建圖(SLAM)系統(tǒng),該系統(tǒng)由完整的前端和后端模塊組成,包括里程計、回環(huán)檢測、子圖融合
    的頭像 發(fā)表于 11-29 10:35 ?910次閱讀
    <b class='flag-5'>一種</b>基于RGB-D圖像序列的協(xié)同隱式神經(jīng)同步定位與建圖(<b class='flag-5'>SLAM</b>)<b class='flag-5'>系統(tǒng)</b>

    一種完全分布式的點線協(xié)同視覺慣性導(dǎo)航系統(tǒng)

    在本文中,我們提出了一種完全分布式的點線協(xié)同視覺慣性導(dǎo)航系統(tǒng)。我們通過蒙特卡羅模擬和真實環(huán)境數(shù)據(jù)集,在稠密特征或稀疏特征環(huán)境下將所提出的算法與其他四算法進行了比較。所有結(jié)果表明,我們
    的頭像 發(fā)表于 09-30 14:45 ?860次閱讀
    <b class='flag-5'>一種</b>完全分布式的<b class='flag-5'>點線</b>協(xié)同視覺慣性導(dǎo)航<b class='flag-5'>系統(tǒng)</b>

    利用VLM和MLLMs實現(xiàn)SLAM語義增強

    語義同步定位與建圖(SLAM系統(tǒng)在對鄰近的語義相似物體進行建圖時面臨困境,特別是在復(fù)雜的室內(nèi)環(huán)境中。本文提出了一種面向?qū)ο?/div>
    的頭像 發(fā)表于 12-05 10:00 ?1250次閱讀
    利用VLM和MLLMs實現(xiàn)<b class='flag-5'>SLAM</b><b class='flag-5'>語義</b>增強

    一種基于點、線和消失點特征的單目SLAM系統(tǒng)設(shè)計

    本文提出了一種穩(wěn)健的單目視覺SLAM系統(tǒng),該系統(tǒng)同時利用點、線和消失點特征來進行精確的相機位姿估計和地圖構(gòu)建,有效解決了傳統(tǒng)基于點特征的SLAM
    的頭像 發(fā)表于 03-21 17:07 ?427次閱讀
    <b class='flag-5'>一種</b>基于點、線和消失點特征的單目<b class='flag-5'>SLAM</b><b class='flag-5'>系統(tǒng)</b>設(shè)計