一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何利用立體視覺實現(xiàn)距離估計?

新機器視覺 ? 來源:智車科技 ? 作者:智車科技 ? 2021-07-01 09:15 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

/ 導(dǎo)讀 /

雙目立體視覺(Binocular Stereo Vision)是機器視覺的一種重要形式,它是基于視差原理并利用成像設(shè)備從不同的位置獲取被測物體的兩幅圖像,通過計算圖像對應(yīng)點間的位置偏差,來獲取物體三維幾何信息的方法。

1偽激光雷達-雙目立體相機

深度學(xué)習(xí)計算機視覺自動駕駛系統(tǒng)中已經(jīng)非常流行且被廣泛應(yīng)用。計算機視覺領(lǐng)域在過去的十年里得到了迅猛的發(fā)展,特別是在障礙物檢測方面。障礙物檢測算法,如YOLO或RetinaNet提供了二維邊界框,用邊界框給出了障礙物在圖像中的位置。

目前,大多數(shù)的目標檢測算法都是基于單目RGB攝像機的,不能返回每個障礙物的距離。為了能夠返回每個障礙物的距離,工程師們將相機與激光雷達(LiDAR,光探測和測距)傳感器進行融合,后者使用激光來返回深度信息。將計算機視覺信息和激光雷達輸出進行傳感器的融合。這種方法的問題是使用激光雷達,就會導(dǎo)致價格昂貴。所以經(jīng)常有人使用的一個雙目攝像頭進行替代,并使用幾何信息來定義每個障礙物的距離,故可以將雙目相機獲取的數(shù)據(jù)稱之為偽激光雷達

雙目視覺利用幾何學(xué)來構(gòu)建深度圖,并將其與目標檢測相結(jié)合以獲得三維距離。那么如何利用立體視覺實現(xiàn)距離估計?以下是雙目障礙物檢測的5步偽代碼:

標定 2 個攝像頭(內(nèi)外參的標定)

創(chuàng)建極線約束

先構(gòu)建視差圖,然后構(gòu)建深度圖

然后將深度圖與障礙物檢測算法相結(jié)合

估計邊界框內(nèi)像素的深度。

2相機內(nèi)外參標定

每個攝像機都需要標定。相機的標定是指將三維世界中的[X,Y,Z]坐標的三維點轉(zhuǎn)換為具有[X,Y]坐標的二維像素。這里簡單的介紹一下針孔相機模型。顧名思義就是用一個針孔讓少量光線穿過相機,從而得到清晰的圖像。

針孔相機模型可以設(shè)置焦距,使得圖像更加的清晰。為了相機標定,我們需要通過攝像機坐標系計算世界坐標點到像素坐標的變換關(guān)系。

從世界坐標系到相機坐標的轉(zhuǎn)換稱為外參標定,外部參數(shù)稱為R(旋轉(zhuǎn)矩陣)和T(平移矩陣)。

從攝像機坐標到像素坐標的轉(zhuǎn)換稱為內(nèi)參標定,它獲取的是相機的內(nèi)部參數(shù),如焦距、光心等…

內(nèi)參我們常稱之為K的矩陣。

內(nèi)參標定,通常使用棋盤和自動算法獲得,如下圖我們在采集標定板時,將告訴算法棋盤上的一個點(例如世界坐標系點 0, 0 , 0)對應(yīng)于圖像中的一個像素為(545,343)。

為此,相機標定必須用攝像機拍攝棋盤格的圖像,在得到一些圖像和對應(yīng)的點之后,標定算法將通過最小化平方誤差來確定攝像機的標定矩陣。得到標定參數(shù)后為了得到校正后的圖像,需要進行畸變校正?;兛梢允菑较虻?,也可以是切向的。畸變校正有助于消除圖像失真。

以下是攝像機標定返回的矩陣形式

f是焦距-(u?,v?) 是光學(xué)中心:這些是固有參數(shù)。

我認為每一個計算機視覺工程師都應(yīng)該必須知道并掌握相機的標定,這是最基本且重要的要求。

在相機標定的過程中涉及到一些齊次坐標轉(zhuǎn)換的問題,這里簡單的介紹一下有兩個公式可以得到從世界坐標系到像素坐標系的關(guān)系:

(1)世界坐標系到相機坐標系的轉(zhuǎn)換(外參標定公式)

e627d60e-d9d2-11eb-9e57-12bb97331649.png

(2)相機坐標系到圖像坐標系的轉(zhuǎn)換(內(nèi)參標定公式)

e633d9b8-d9d2-11eb-9e57-12bb97331649.png

所以從三維空間坐標系到圖像坐標系下的關(guān)系可以總結(jié)為

e63f9c94-d9d2-11eb-9e57-12bb97331649.png

但是我們知道這個公式是齊次坐標才可以這么寫,也就是需要將O_world從[X Y Z]修改為[X Y Z 1],加這個“1”后稱為齊次坐標。

e67fd156-d9d2-11eb-9e57-12bb97331649.png

3雙目視覺的對極幾何

我們知道雙目立體視覺是基于兩幅圖像來尋找深度的,人類的眼睛就像兩個相機,因為兩只眼睛從不同的角度觀察圖像,所以他們可以計算兩個視角之間的差異,并建立距離估計。下圖是一個雙目立體相機的例子

那么我們?nèi)绾胃鶕?jù)雙目立體相機如何估計深度?想象一下你有兩個攝像頭,一個左攝像頭和一個右攝像頭。這兩個攝像頭在同一Y軸和Z軸上對齊。那么唯一的區(qū)別是它們的X值。

根據(jù)上圖我們的目標是估計O點(代表圖像中的任何像素)的Z值,即距離。X是對齊軸,Y是高度值,Z是深度值,兩個藍色的平面圖對應(yīng)于每個攝像頭的圖像。假設(shè)我們從從俯視的角度來考慮這個問題。

已知:

(1)xL對應(yīng)于左側(cè)相機圖像中的點。xR是與左側(cè)圖像中該點的對應(yīng)位置。(2)b是基線,是兩個攝像頭之間的距離。

針對左相機,如下圖,我們可以得到一個公式:Z = X*f / xL.

針對右相機,如下圖,我們可以得到另一個公式:Z = (X — b)*f/xR.

此時根據(jù)兩個公式我們可以計算出正確的視差d=xL-xR和一個物體的正確XYZ位置。

4視差和深度圖

什么是視差?視差是指同一個三維點在兩個不同的攝像機角度獲得的圖像中位置的差異。視差圖是指一對立體圖像之間明顯的像素差異或運動。要體驗這一點,試著閉上你的一只眼睛,然后快速地閉上它,同時打開另一只眼睛。離你很近的物體看起來會跳一段很長的距離,而離你較遠的物體移動很少,這種運動就是視差。

e7742be8-d9d2-11eb-9e57-12bb97331649.png

由于立體視覺,我們可以估計任何物體的深度,假設(shè)我們得到了正確的矩陣參數(shù),則可以計算深度圖或視差圖:

為了計算視差,我們必須從左邊的圖像中找到每個像素,并將其與右邊圖像中的每個像素進行匹配。這就是所謂的雙目相機的立體匹配的問題。為了解決像素匹配的問題,引入對極幾何約束,只需在對極線上搜索它,就不需要二維搜索,對應(yīng)點一定是位于這條線上,搜索范圍縮小到一維。

之所以能夠引入對極約束,這是因為兩個相機是沿同一軸對齊的。以下是極線搜索的工作原理

取左圖中這一行上的每個像素

在同一極線上比較左圖像像素和右圖像中的每個像素

選擇 cost 最低的像素

計算視差 d

5構(gòu)建偽激光雷達效果

現(xiàn)在,是時候把這些應(yīng)用到一個真實的場景中,看看我們?nèi)绾问褂秒p目立體視覺來估計物體的深度。假設(shè)我們有以下兩張實際場景下的圖片,并且我們我們已經(jīng)獲取了雙目相機的外參矩陣。

此時我們計算視差圖的步驟。將投影矩陣分解為攝像機內(nèi)參矩陣

編輯:jq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • RGB
    RGB
    +關(guān)注

    關(guān)注

    4

    文章

    807

    瀏覽量

    59921
  • 計算機視覺
    +關(guān)注

    關(guān)注

    9

    文章

    1708

    瀏覽量

    46774
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5561

    瀏覽量

    122793
  • 自動駕駛系統(tǒng)
    +關(guān)注

    關(guān)注

    0

    文章

    67

    瀏覽量

    7133

原文標題:自動駕駛汽車的偽激光雷達-雙目立體視覺

文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    Bumblebee X 5GigE系列工業(yè)相機,多場景下釋放工業(yè)立體視覺的無限潛力!

    隨著智能制造(工業(yè)4.0)和柔性生產(chǎn)的發(fā)展,工業(yè)場景需要更智能的“眼睛”來理解三維空間。FLIRIIS通過提供包含完整立體處理支持的硬件和軟件包(從圖像校正和對準到基于密集相關(guān)的立體映射),使立體視覺
    的頭像 發(fā)表于 07-11 17:04 ?363次閱讀
    Bumblebee X 5GigE系列工業(yè)相機,多場景下釋放工業(yè)<b class='flag-5'>立體視覺</b>的無限潛力!

    智能軟件+硬件解決方案克服實時立體視覺中的挑戰(zhàn)

    立體視覺是一種強大的成像技術(shù),通過使用兩臺或多臺相機以略微不同的角度拍攝,模擬人類通過雙眼感知深度的方式,從而捕捉環(huán)境的三維結(jié)構(gòu)。這項技術(shù)能夠提供全視野的高密度三維測量,并在非結(jié)構(gòu)化和動態(tài)環(huán)境中表
    的頭像 發(fā)表于 05-16 17:04 ?208次閱讀
    智能軟件+硬件解決方案克服實時<b class='flag-5'>立體視覺</b>中的挑戰(zhàn)

    中科慧眼三目立體視覺產(chǎn)品的功能優(yōu)勢

    2025年上海國際車展已正式開幕,三目立體視覺產(chǎn)品作為推動智駕平權(quán)的關(guān)鍵力量,也在全民智駕時代備受矚目。
    的頭像 發(fā)表于 05-06 09:23 ?453次閱讀

    中科慧眼三目立體視覺相機將亮相2025上海車展

    2025年上海國際車展開幕在即,這場全球矚目的行業(yè)盛會不僅是車企競技的舞臺,更是前沿技術(shù)趨勢的風向標。隨著智能駕駛加速邁向“全民普惠”時代,三目立體視覺技術(shù)正以其低成本、高精度、強適配性的優(yōu)勢,成為推動智駕平權(quán)的關(guān)鍵力量。
    的頭像 發(fā)表于 04-19 10:36 ?582次閱讀

    【AIBOX 應(yīng)用案例】單目深度估計

    ?Firefly所推出的NVIDIA系列的AIBOX可實現(xiàn)深度估計,該技術(shù)是一種從單張或者多張圖像預(yù)測場景深度信息的技術(shù),廣泛應(yīng)用于計算機視覺領(lǐng)域,尤其是在三維重建、場景理解和環(huán)境感知等任務(wù)中起到
    的頭像 發(fā)表于 03-19 16:33 ?420次閱讀
    【AIBOX 應(yīng)用案例】單目深度<b class='flag-5'>估計</b>

    學(xué)好影像3D立體化,北上廣深開店第一家

    雙相機拍攝的3D立體影像(立體圖像與立體視頻)
    的頭像 發(fā)表于 02-06 16:40 ?297次閱讀
    學(xué)好影像3D<b class='flag-5'>立體</b>化,北上廣深開店第一家

    友思特與Stereolabs建立合作伙伴關(guān)系

    友思特與國際領(lǐng)先的立體視覺相機技術(shù)公司 Stereolabs正式建立了合作伙伴關(guān)系!
    的頭像 發(fā)表于 01-06 10:07 ?628次閱讀

    【「具身智能機器人系統(tǒng)」閱讀體驗】2.具身智能機器人的基礎(chǔ)模塊

    目前高速發(fā)展的大模型能給具身智能帶來一些突破性的進展。 對于感知系統(tǒng),要做的主要任務(wù)是物體檢測,語義分割,立體視覺,鳥瞰視角感知。 有很多算法都可以實現(xiàn)物體檢測,比如文章提到的HOG + SVM算法
    發(fā)表于 01-04 19:22

    產(chǎn)品快訊 | Teledyne FLIR IIS發(fā)布最新產(chǎn)品信息

    (IP67)立體視覺解決方案,具有板載處理功能,可為倉庫自動化、機器人導(dǎo)引和物流構(gòu)建成功的系統(tǒng)。BumblebeeX立體相機設(shè)計用于在不同距離內(nèi)準確操作??蛻艨梢?/div>
    的頭像 發(fā)表于 12-20 17:05 ?644次閱讀
    產(chǎn)品快訊 | Teledyne FLIR IIS發(fā)布最新產(chǎn)品信息

    實現(xiàn)利用ads1292短距離測量心電信號的嗎?這種想法可行嗎?

    大俠們,有實現(xiàn)利用ads1292短距離(例如,兩個電極都在左手或右手)測量心電信號的嗎?這種想法可行嗎?
    發(fā)表于 12-16 08:25

    用于任意排列多相機的通用視覺里程計系統(tǒng)

    如何讓多相機視覺SLAM系統(tǒng)更易于部署且對環(huán)境更具魯棒性?本文提出了一種適用于任意排列多相機的通用視覺里程計系統(tǒng)。在KITTI-360和MultiCamData數(shù)據(jù)集上驗證了該方法對于任意放置相機的魯棒性。與其他立體和多相機
    的頭像 發(fā)表于 12-13 11:22 ?764次閱讀
    用于任意排列多相機的通用<b class='flag-5'>視覺</b>里程計系統(tǒng)

    建筑物邊緣感知和邊緣融合的多視圖立體三維重建方法

    航空建筑深度估計是三維數(shù)字城市重建中的一項重要任務(wù),基于深度學(xué)習(xí)的多視圖立體(MVS)方法在該領(lǐng)域取得了較好的成果。目前的主要方法通過修改MVS 框架實現(xiàn)建筑物的深度估計,缺乏對建筑物
    的頭像 發(fā)表于 11-07 10:16 ?926次閱讀
    建筑物邊緣感知和邊緣融合的多視圖<b class='flag-5'>立體</b>三維重建方法

    TLV320ADC3101如何實現(xiàn)立體聲-雙聲道

    TLV320ADC3101: 如何實現(xiàn)立體聲-雙聲道 1、項目中,我們只接一個模擬MIC(IN2RP),IN2LP不接MIC-懸空。 2、ADC3101做slave 問:我們錄音后,播放錄音發(fā)現(xiàn)只有右邊喇叭有聲音,我們想實現(xiàn)
    發(fā)表于 10-09 06:48

    立體視覺新手必看:英特爾? 實感? D421深度相機模組

    入門級立體深度模組,旨在以高性價比將先進的深度感應(yīng)技術(shù)帶給更廣泛的用戶群體,為尋求深度成像技術(shù)及消費產(chǎn)品潛力的開發(fā)者、研究人員和計算機視覺專家提供卓越的價值,將先進的3D視覺技術(shù)拓展至更廣泛的應(yīng)用領(lǐng)域。 英特爾? 實感? 深度相
    的頭像 發(fā)表于 09-26 13:33 ?580次閱讀
    <b class='flag-5'>立體視覺</b>新手必看:英特爾? 實感? D421深度相機模組

    居然還有這樣的10.1寸光場裸眼3D視覺訓(xùn)練平板電腦?

    在這個科技飛速發(fā)展的時代,我們?yōu)槟鷰砹艘豢罡锩缘漠a(chǎn)品——10.1寸光場裸眼3D視覺訓(xùn)練平板電腦。這款平板電腦不僅讓您無需佩戴3D眼鏡就能享受逼真的立體視覺效果,還通過先進的技術(shù)幫助您緩解眼疲勞,提升視覺健康。
    的頭像 發(fā)表于 07-25 14:09 ?597次閱讀
    居然還有這樣的10.1寸光場裸眼3D<b class='flag-5'>視覺</b>訓(xùn)練平板電腦?