一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

機器人避障在算法原理方面存在哪些問題

SUYb_GeWu_IOT ? 來源:未知 ? 作者:胡薇 ? 2018-11-06 14:21 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

從原理上來講,沒有哪個傳感器是完美的,比方說機器人面前是一塊完全透明的玻璃,那么采用紅外、激光雷達(dá)或視覺的方案,就可能因為這個光線直接穿過玻璃導(dǎo)致檢測失敗。

避障是指移動機器人在行走過程中,通過傳感器感知到在其規(guī)劃路線上存在靜態(tài)或動態(tài)障礙物時,按照 一定的算法實時更新路徑,繞過障礙物,最后達(dá)到目標(biāo)點。

避障常用的傳感器

不管是要進行導(dǎo)航規(guī)劃還是避障,感知周邊環(huán)境信息是第一步。就避障來說,移動機器人需要通過傳感器 實時獲取自身周圍障礙物信息,包括尺寸、形狀和位置等信息。避障使用的傳感器多種多樣,各有不同的原理和特點,目前常見的主要有視覺傳感器、激光傳感器、紅外傳感器、超聲波傳感器等。下面我簡單介紹一下這幾種傳感器的基本工作原理。

超聲波

超聲波傳感器的基本原理是測量超聲波的飛行時間,通過d=vt/2測量距離,其中d是距離,v是聲速,t是 飛行時間。由于超聲波在空氣中的速度與溫濕度有關(guān),在比較精確的測量中,需把溫濕度的變化和其它因素考慮進去。

上面這個圖就是超聲波傳感器信號的一個示意。通過壓電或靜電變送器產(chǎn)生一個頻率在幾十kHz的超聲波脈沖組成波包,系統(tǒng)檢測高于某閾值的反向聲波,檢測到后使用測量到的飛行時間計算距離。超聲波傳感器一般作用距離較短,普通的有效探測距離都在幾米,但是會有一個幾十毫米左右的最小探測盲區(qū)。由于超聲傳感器的成本低、實現(xiàn)方法簡單、技術(shù)成熟,是移動機器人中常用的傳感器。超聲波傳感器也有一些缺點,首先看下面這個圖。

因為聲音是錐形傳播的,所以我們實際測到的距離并不是 一個點,而是某個錐形角度范圍內(nèi)最近物體的距離。

另外,超聲波的測量周期較長,比如3米左右的物體,聲波傳輸這么遠(yuǎn)的距離需要約20ms的時間。再者,不同材料對聲波的反射或者吸引是不相同的,還有多個超聲傳感器之間有可能會互相干擾,這都是實際應(yīng)用的過程中需要考慮的。

紅外

一般的紅外測距都是采用三角測距的原理。紅外發(fā)射器按照一定角度發(fā)射紅外光束,遇到物體之后,光會反向回來,檢測到反射光之后,通過結(jié)構(gòu)上的幾何三角關(guān)系,就可以計算出物體距離D。

當(dāng)D的距離足夠近的時候,上圖中L值會相當(dāng)大,如果超過CCD的探測范圍,這時,雖然物體很近,但是傳感器反而看不到了。當(dāng)物體距離D很大時,L值就會很小,測量量精度會變差。因此,常見的紅外傳感器 測量距離都比較近,小于超聲波,同時遠(yuǎn)距離測量也有最小距離的限制。另外,對于透明的或者近似黑體的物體,紅外傳感器是無法檢測距離的。但相對于超聲來說,紅外傳感器具有更高的帶寬。

激光

常見的激光雷達(dá)是基于飛行時間的(ToF,time of flight),通過測量激光的飛行時間來進行測距d=ct/2,類似于前面提到的超聲測距公式,其中d是距離,c是光速,t是從發(fā)射到接收的時間間隔。激光雷達(dá)包括發(fā)射器和接收器 ,發(fā)射器用激光照射目標(biāo),接收器接收反向回的光波。機械式的激光雷達(dá)包括一個帶有鏡子的機械機構(gòu),鏡子的旋轉(zhuǎn)使得光束可以覆蓋 一個平面,這樣我們就可以測量到一個平面上的距離信息。

對飛行時間的測量也有不同的方法,比如使用脈沖激光,然后類似前面講的超聲方案,直接測量占用的時間,但因為光速遠(yuǎn)高于聲速,需要非常高精度的時間測量元件,所以非常昂貴;另一種發(fā)射調(diào)頻后的連續(xù)激光波,通過測量接收到的反射波之間的差頻來測量時間。

圖一

圖二

比較簡單的方案是測量反射光的相移,傳感器以已知的頻率發(fā)射一定幅度的調(diào)制光,并測量發(fā)射和反向信號之間的相移,如上圖一。調(diào)制信號的波長為lamda=c/f,其中c是光速,f是調(diào)制頻率,測量到發(fā)射和反射光束之間的相移差theta之后,距離可由lamda*theta/4pi計算得到,如上圖二。

激光雷達(dá)的測量距離可以達(dá)到幾十米甚至上百米,角度分辨率高,通常可以達(dá)到零點幾度,測距的精度也高。但測量距離的置信度會反比于接收信號幅度的平方,因此,黑體或者遠(yuǎn)距離的物體距離測量不會像光亮的、近距離的物體那么好的估計。并且,對于透明材料,比如玻璃,激光雷達(dá)就無能為力了。還有,由于結(jié)構(gòu)的復(fù)雜、器件成本高,激光雷達(dá)的成本也很高。

一些低端的激光雷達(dá)會采用三角測距的方案進行測距。但這時它們的量程會受到限制,一般幾米以內(nèi),并且精度相對低一些,但用于室內(nèi)低速環(huán)境的SLAM或者在室外環(huán)境只用于避障的話,效果還是不錯的。

視覺

常用的計算機視覺方案也有很多種, 比如雙目視覺,基于TOF的深度相機,基于結(jié)構(gòu)光的深度相機等。深度相機可以同時獲得RGB圖和深度圖,不管是基于TOF還是結(jié)構(gòu)光,在室外強光環(huán)境下效果都并不太理想,因為它們都是需要主動發(fā)光的。像基于結(jié)構(gòu)光的深度相機,發(fā)射出的光會生成相對隨機但又固定的斑點圖樣,這些光斑打在物體上后,因為與攝像頭距離不同,被攝像頭捕捉到的位置也不相同,之后先計算拍到的圖的斑點與標(biāo)定的標(biāo)準(zhǔn)圖案在不同位置的偏移,利用攝像頭位置、傳感器大小等參數(shù)就可以計算出物體與攝像頭的距離。而我們目前的E巡機器人主要是工作在室外環(huán)境,主動光源會受到太陽光等條件的很大影響,所以雙目視覺這種被動視覺方案更適合,因此我們采用的視覺方案是基于雙目視覺的。

雙目視覺的測距本質(zhì)上也是三角測距法,由于兩個攝像頭的位置不同,就像我們?nèi)说膬芍谎劬σ粯?,看到的物體不一樣。兩個攝像頭看到的同一個點P,在成像的時候會有不同的像素位置,此時通過三角測距就可以測出這個點的距離。與結(jié)構(gòu)光方法不同的是,結(jié)構(gòu)光計算的點是主動發(fā)出的、已知確定的,而雙目算法計算的點一般是利用算法抓取到的圖像特征,如SIFT或SURF特征等,這樣通過特征計算出來的是稀疏圖。

要做良好的避障,稀疏圖還是不太夠的,我們需要獲得的是稠密的點云圖,整個場景的深度信息。稠密匹配的算法大致可以分為兩類,局部算法和全局算法。局部算法使用像素局部的信息來計算其深度,而全局算法采用圖像中的所有信息進行計算。一般來說,局部算法的速度更快,但全局算法的精度更高。

這兩類各有很多種不同方式的具體算法實現(xiàn)。能過它們的輸出我們可以估算出整個場景中的深度信息,這個深度信息可以幫助我們尋找地圖場景中的可行走區(qū)域以及障礙物。整個的輸出類似于激光雷達(dá)輸出的3D點云圖,但是相比來講得到信息會更豐富,視覺同激光相比優(yōu)點是價格低很多,缺點也比較明顯,測量精度要差 一些,對計算能力的要求也高很多。當(dāng)然,這個精度差是相對的,在實用的過程中是完全足夠的,并且我們目前的算法在我們的平臺NVIDIA TK1和TX1上是可以做到實時運行。

KITTI采集的圖

實際輸出的深度圖,不同的顏色代表不同的距離

在實際應(yīng)用的過程中,我們從攝像頭讀取到的是連續(xù)的視頻幀流,我們還可以通過這些幀來估計場景中 目標(biāo)物體的運動,給它們建立運動模型,估計和預(yù)測它們的運動方向、運動速度,這對我們實際行走、避障規(guī)劃是很有用的。

以上幾種是最常見的幾種傳感器 ,各有其優(yōu)點和缺點,在真正實際應(yīng)用的過程中,一般是綜合配置使用多種不同的傳感器 ,以最大化保證在各種不同的應(yīng)用和環(huán)境條件下,機器人都能正確感知到障礙物信息。我們公司的E巡機器人的避障方案就是以雙目視覺為主,再輔助以多種其他傳感器,保證機器人周邊360度空間立體范圍內(nèi)的障礙物都能被有效偵測到,保證機器人行走的安全性。

避障常用算法原理

在講避障算法之前,我們假定機器人已經(jīng)有了一個導(dǎo)航規(guī)劃算法對自己的運動進行規(guī)劃,并按照規(guī)劃的路徑行走。避障算法的任務(wù)就是在機器人執(zhí)行正常行走任務(wù)的時候,由于傳感器的輸入感知到了障礙物的存在,實時地更新目標(biāo)軌跡,繞過障礙物。

Bug算法知乎用戶無方表示

Bug算法應(yīng)該是最簡單的一種避障算法了,它的基本思想是在發(fā)現(xiàn)障礙后,圍著檢測到的障礙物輪廓行走,從而繞開它。Bug算法目前有很多變種, 比如Bug1算法,機器人首先完全地圍繞物體,然后從距目標(biāo)最短距離的點離開。Bug1算法的效率很低,但可以保證機器人達(dá)到目標(biāo)。

Bug1算法示例

改進后的Bug2算法中,機器人開始時會跟蹤物體的輪廓,但不會完全圍繞物體一圈,當(dāng)機器人可以直接移動至目標(biāo)時,就可以直接從障礙分離,這樣可以達(dá)到比較短的機器人行走總路徑。

Bug2算法示例

除此之外,Bug算法還有很多其他的變種, 比如正切Bug算法等等。在許多簡單的場景中,Bug算法是實現(xiàn)起來比較容易和方便的,但是它們并沒有考慮到機器人的動力學(xué)等限制,因此在更復(fù)雜的實際環(huán)境中就不是那么可靠好用了。

勢場法(PFM)

實際上,勢場法不僅僅可以用來避障,還可以用來進行路徑的規(guī)劃。勢場法把機器人處理在勢場下的 一個點,隨著勢場而移動,目標(biāo)表現(xiàn)為低谷值,即對機器人的吸引力,而障礙物扮演的勢場中的一個高峰,即斥力,所有這些力迭加于機器人身上,平滑地引導(dǎo)機器人走向目標(biāo),同時避免碰撞已知的障礙物。當(dāng)機器人移動過程中檢測新的障礙物,則需要更新勢場并重新規(guī)劃。

上面這個圖是勢場比較典型的示例圖,最上的圖a左上角是出發(fā)點,右下角是目標(biāo)點,中間三個方塊是障礙物。中間的圖b就是等勢位圖,圖中的每條連續(xù)的線就代表了一個等勢位的一條線,然后虛線表示的在整個勢場里面所規(guī)劃出來的一條路徑,我們的機器人是沿著勢場所指向的那個方向一直行走,可以看見它會繞過這個比較高的障礙物。最下面的圖,即我們整個目標(biāo)的吸引力還有我們所有障礙物產(chǎn)生的斥力最終形成的一個勢場效果圖,可以看到機器人從左上角的出發(fā)點出發(fā),一路沿著勢場下降的方向達(dá)到最終的目標(biāo)點,而每個障礙物勢場表現(xiàn)出在很高的平臺,所以,它規(guī)劃出來的路徑是不會從這個障礙物上面走的。

一種擴展的方法在基本的勢場上附加了了另外兩個勢場:轉(zhuǎn)運勢場和任務(wù)勢場。它們額外考慮了由于機器人本身運動方向、運動速度等狀態(tài)和障礙物之間的相互影響。

轉(zhuǎn)動勢場考慮了障礙與機器人的相對方位,當(dāng)機器人朝著障礙物行走時,增加斥力, 而當(dāng)平行于物體行走時,因為很明顯并不會撞到障礙物,則減小斥力。任務(wù)勢場則排除了那些根據(jù)當(dāng)前機器人速度不會對近期勢能造成影響的障礙,因此允許規(guī)劃出 一條更為平滑的軌跡。

另外還有諧波勢場法等其他改進方法。勢場法在理論上有諸多局限性, 比如局部最小點問題,或者震蕩性的問題,但實際應(yīng)用過程中效果還是不錯的,實現(xiàn)起來也比較容易。

向量場直方圖(VFH)

它執(zhí)行過程中針對移動機器人當(dāng)前周邊環(huán)境創(chuàng)建了一個基于極坐標(biāo)表示的局部地圖,這個局部使用柵格圖的表示方法,會被最近的一些傳感器數(shù)據(jù)所更新。VFH算法產(chǎn)生的極坐標(biāo)直方圖如圖所示:

圖中x軸是以機器人為中心感知到的障礙物的角度,y軸表示在該方向存在障礙物的概率大小p。實際應(yīng)用的過程中會根據(jù)這個直方圖首先辨識出允許機器人通過的足夠大的所有空隙,然后對所有這些空隙計算其代價函數(shù),最終選擇具有最低代價函數(shù)的通路通過。

代價函數(shù)受三個因素影響: 目標(biāo)方向、機器人當(dāng)前方向、之前選擇的方向,最終生成的代價是這三個因素的加權(quán)值,通過調(diào)節(jié)不同的權(quán)重可以調(diào)整機器人的選擇偏好。VFH算法也有其他的擴展和改進,比如在VFH+算法中,就考慮了機器人運動學(xué)的限制。由于實際底層運動結(jié)構(gòu)的不同,機器的實際運動能力是受限的,比如汽車結(jié)構(gòu),就不能隨心所欲地原地轉(zhuǎn)向等。VFH+算法會考慮障礙物對機器人實際運動能力下軌跡的阻擋效應(yīng),屏蔽掉那些雖然沒有被障礙物占據(jù)但由于其阻擋實際無法達(dá)到的運動軌跡。我們的E巡機器人采用的是兩輪差動驅(qū)動的運動形式,運動非常靈活,實際應(yīng)用較少受到這些因素的影響。

具體可以看 一下這個圖示:

類似這樣傳統(tǒng)的避障方法還有很多,除此之外,還有許多其他的智能避障技術(shù),比如神經(jīng)網(wǎng)絡(luò)、模糊邏輯等。

神經(jīng)網(wǎng)絡(luò)方法對機器人從初始位置到目標(biāo)位置的整個行走路徑進行訓(xùn)練建模,應(yīng)用的時候,神經(jīng)網(wǎng)絡(luò)的輸入為之前機器人的位姿和速度以及傳感器的輸 入,輸出期望的下一目標(biāo)或運動方向。

模糊邏輯方法核心是模糊控制器,需要將專家的知識或操作人員的經(jīng)驗寫成多條模糊邏輯語句,以此控制機器人的避障過程。 比如這樣的模糊邏輯:第一條,若右前方較遠(yuǎn)處檢測到障礙物,則稍向左轉(zhuǎn);第 二條,若右前方較近處檢測到障礙物,則減速并向左轉(zhuǎn)更多角度;等等。

避障過程中存在哪些問題

傳感器失效

從原理上來講,沒有哪個傳感器是完美的,比方說機器人面前是一塊完全透明的玻璃,那么采用紅外、激光雷達(dá)或視覺的方案,就可能因為這個光線直接穿過玻璃導(dǎo)致檢測失敗,這時候就需要超聲波這樣的傳感器來進行障礙物的偵測。所以我們在真正應(yīng)用的過程中,肯定都需要采取多種傳感器的結(jié)合,對不同傳感器采集到的數(shù)據(jù)進行一個交叉驗證,以及信息的融合,保證機器人能夠穩(wěn)定可靠的工作。

除此之外也有其他模式可能導(dǎo)致傳感器失效,比如超聲波測距,一般需要超聲陣列,而陣列之間的傳感器如果同時工作的話,會容易互相產(chǎn)生干擾,傳感器A發(fā)射的光波反射回來被傳感器B接收,導(dǎo)致測量結(jié)果出現(xiàn)錯誤,但是如果按照順序一個個工作,由于超聲波傳感器采樣的周期相對比較長,會減慢整個采集的速度,對實時避障造成影響,這就要求從硬件的結(jié)構(gòu)到算法都必須設(shè)計好,盡可能提高采樣速度,減少傳感器之間的串?dāng)_。

還有比如說,機器人如果需要運動的話,一般都需要電機驅(qū)動器,它們在工作過程中都會產(chǎn)生電容兼容性的問題,有可能會導(dǎo)致傳感器采集出現(xiàn)錯誤,尤其是模擬的傳感器,所以在實現(xiàn)過程中要把電機驅(qū)動器等設(shè)備、傳感器的采集部分,以及電源通信部分保持隔離,保證整個系統(tǒng)是能夠正常工作的。

算法設(shè)計

在剛剛提到的幾個算法,很多在設(shè)計的時候都并沒有完善考慮到整個移動機器人本身運動學(xué)模型和動力學(xué)模型,這樣的算法規(guī)劃出來的軌跡有可能在運動學(xué)上是實現(xiàn)不了的,有可能在運動學(xué)上可以實現(xiàn),但是控制起來非常困難,比如剛剛提到的如果一臺機器人的底盤是汽車的結(jié)構(gòu),就不能隨心所欲地原地轉(zhuǎn)向,或者哪怕這個機器人是可以原地轉(zhuǎn)向,但是如果一下子做一個很大的機動的話,我們的整個電機是執(zhí)行不出來的。所以在設(shè)計的時候,就要優(yōu)化好機器人本身的結(jié)構(gòu)和控制,設(shè)計避障方案的時候,也要考慮到可行性的問題。

然后在整個算法的架構(gòu)設(shè)計的時候,我們要考慮到為了避讓或者是避免傷人或者傷了機器人本身,在執(zhí)行工作的時候,避障是優(yōu)先級比較高的任務(wù),甚至是最高的任務(wù),并且自身運行的優(yōu)先級最高,對機器人的控制優(yōu)先級也要最高,同時這個算法實現(xiàn)起來速度要足夠快,這樣才能滿足我們實時性的要求。

總之,在我看來,避障在某種程度上可以看做機器人在自主導(dǎo)航規(guī)劃的一種特殊情況,相比整體全局的導(dǎo)航,它對實時性和可靠性的要求更高一些,然后,局部性和動態(tài)性是它的一個特點,這是我們在設(shè)計整個機器人硬件軟件架構(gòu)時一定要注意的。

讀者提問:

多機協(xié)同的避障策略有哪些?

多機協(xié)同避障策略在整個SLAM方向上都還是一個在鉆研的熱點領(lǐng)域,單純就避障來說,目前的方案是,當(dāng)有兩個或多個機器人協(xié)同工作的時候,每個機器人會在一個局部各自維護一個相對的動態(tài)地圖,所有機器人共享一個相對靜態(tài)的地圖,而對于單個機器人來說,它們會各自維護一個更加動態(tài)的地圖,這樣當(dāng)兩個機器人接近一個位置時,它們會將它們維護的動態(tài)地圖合并起來。

這樣子有什么好處呢,比如視覺只能看到前方一個方向,這時候跟后面機器人的動態(tài)地圖合并之后,就能看到前后整個局部的動態(tài)信息,然后完成避障。

多機協(xié)同的關(guān)鍵在于,兩個局部地圖之間的分享,就是它們分別在整個相對靜態(tài)的全局地圖上是有一小塊一個窗口的位置,到這兩個窗口可能融合的話,會把它們?nèi)诤显谝黄?,同時去指導(dǎo)兩個機器人的避障。在具體實現(xiàn)過程中,也要考慮整個信息傳輸?shù)膯栴},如果是自己本身的局部地圖,由于都是本機的運算,速度一般都比較快,如果是兩個機器人協(xié)作的話,就要考慮到傳輸?shù)难訒r,以及帶寬的問題。

避障有無標(biāo)準(zhǔn)的測試標(biāo)準(zhǔn)和指標(biāo)?

目前就我所了解業(yè)界并沒有什么統(tǒng)一的測試標(biāo)準(zhǔn)和指標(biāo),我們目前測試的時候會考慮這些指標(biāo),比如在單個障礙物或是多個障礙物,障礙物是靜態(tài)的或動態(tài)的情況下避障效果如何,以及實際規(guī)劃出的路徑完美度如何,還有這個軌跡是否平滑,符合我們觀感的效果。

當(dāng)然,這個最重要的指標(biāo)我覺得應(yīng)該避障是否失敗就是成功率的問題,要保證這個避障不管是碰到靜態(tài)的或者是動態(tài)的物體,然后那個物體不管是什么材質(zhì),比如說如果是動態(tài)的人,我們穿什么樣的衣服會不會對整個避障功能造成影響,另外就是不同的環(huán)境又會有什么樣的影響,比如光線充足或暗淡。對于避障來說,成功率才是最為關(guān)鍵的。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 傳感器
    +關(guān)注

    關(guān)注

    2566

    文章

    53008

    瀏覽量

    767525
  • 機器人
    +關(guān)注

    關(guān)注

    213

    文章

    29748

    瀏覽量

    212918

原文標(biāo)題:從傳感器到算法原理,機器人避障還存在哪些問題?

文章出處:【微信號:GeWu-IOT,微信公眾號:物聯(lián)網(wǎng)資本論】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    大象機器人推出移動復(fù)合機器人myAGV Pro

    當(dāng)自動駕駛算法應(yīng)用于真實道路和物流運輸,當(dāng)專業(yè)級機械臂走進課堂示教編程,在這個人工智能與機器人技術(shù)的快速發(fā)展的時代,人們不再滿足于基礎(chǔ)編程實踐,而是渴望仿真環(huán)境中探索多機協(xié)同算法等前
    的頭像 發(fā)表于 07-02 16:35 ?335次閱讀
    大象<b class='flag-5'>機器人</b>推出移動復(fù)合<b class='flag-5'>機器人</b>myAGV Pro

    也能預(yù)判?視覺黑科技讓掃地機器人開啟“先知”模式

    從被動到主動預(yù)判,視覺技術(shù)比預(yù)想的更快實現(xiàn)。
    的頭像 發(fā)表于 06-18 14:09 ?250次閱讀

    AGV機器人如何實現(xiàn)毫秒級?深度解析多傳感器融合的核心技術(shù)

    一、AGV多傳感器融合實時系統(tǒng)介紹 1.簡介 傳感器融合技術(shù)是機器人實現(xiàn)全覆蓋的關(guān)鍵,其原理仿效人腦綜合處理信息的方式:通過協(xié)調(diào)多種
    的頭像 發(fā)表于 05-28 14:21 ?293次閱讀
    AGV<b class='flag-5'>機器人</b>如何實現(xiàn)毫秒級<b class='flag-5'>避</b><b class='flag-5'>障</b>?深度解析多傳感器融合的核心技術(shù)

    詳細(xì)介紹機場智能指路機器人的工作原理

    路徑。路徑規(guī)劃算法會考慮多種因素,如距離最短、避開人流密集區(qū)域、優(yōu)先選擇寬闊通道等,以確保旅客能夠快速、順暢地到達(dá)目的地。 實時導(dǎo)航與機器
    發(fā)表于 05-10 18:26

    【「# ROS 2智能機器人開發(fā)實踐」閱讀體驗】視覺實現(xiàn)的基礎(chǔ)算法的應(yīng)用

    : 一、機器人視覺:從理論到實踐 第7章詳細(xì)介紹了ROS2機器視覺領(lǐng)域的應(yīng)用,涵蓋了相機標(biāo)定、OpenCV集成、視覺巡線、二維碼識別以及深度學(xué)習(xí)目標(biāo)檢測等內(nèi)容。通過學(xué)習(xí),我認(rèn)識到: 相機標(biāo)定的重要性
    發(fā)表于 05-03 19:41

    【「# ROS 2智能機器人開發(fā)實踐」閱讀體驗】+內(nèi)容初識

    應(yīng)用案例:書中提供了多個機器人應(yīng)用案例,幫助讀者將所學(xué)的 ROS 2 知識應(yīng)用到實際的機器人項目中。例如,自主移動機器人案例中,詳細(xì)講解了如何實現(xiàn)
    發(fā)表于 04-27 11:24

    大象機器人攜手進迭時空推出 RISC-V 全棧開源六軸機械臂產(chǎn)品

    識別聯(lián)調(diào)。 進迭時空致力于為智能機器人提供完整全棧優(yōu)化的RISC-V AI軟硬件解決方案,第一代RISC-V AI CPU芯片K1已完成AI視覺感知、AI語音處理、自動、路徑規(guī)劃、運動控制等
    發(fā)表于 04-25 17:59

    INDEMIND:AI視覺賦能服務(wù)機器人,“零”碰撞技術(shù)實現(xiàn)全天候安全

    突破傳統(tǒng)局限,視覺方案為服務(wù)機器人拉滿安全感。
    的頭像 發(fā)表于 02-21 16:27 ?375次閱讀
    INDEMIND:AI視覺賦能服務(wù)<b class='flag-5'>機器人</b>,“零”碰撞<b class='flag-5'>避</b><b class='flag-5'>障</b>技術(shù)實現(xiàn)全天候安全

    宇樹科技物聯(lián)網(wǎng)方面

    機器人感知環(huán)境的重要部件,如同機器人的 “眼睛”,能夠幫助機器人獲取周圍環(huán)境的三維信息、識別物體和障礙物等,為機器人在復(fù)雜環(huán)境下的導(dǎo)航、
    發(fā)表于 02-04 06:48

    【「具身智能機器人系統(tǒng)」閱讀體驗】2.具身智能機器人的基礎(chǔ)模塊

    具身智能機器人的基礎(chǔ)模塊,這個是本書的第二部分內(nèi)容,主要分為四個部分:機器人計算系統(tǒng),自主機器人的感知系統(tǒng),自主機器人的定位系統(tǒng),自主機器人
    發(fā)表于 01-04 19:22

    【「具身智能機器人系統(tǒng)」閱讀體驗】1.全書概覽與第一章學(xué)習(xí)

    ,特別是模型訓(xùn)練的時候,高質(zhì)量、大規(guī)模且多樣化的模型才能夠訓(xùn)練出來一個好的網(wǎng)絡(luò)。針對具身智能機器人也是如此,如自主導(dǎo)航機器人需要大量地環(huán)境數(shù)據(jù)來進行路徑規(guī)劃和
    發(fā)表于 12-27 14:50

    艾邁斯歐司朗Belago紅外LED,助力Supernode打造掃地機器人

    Supernode與艾邁斯歐司朗攜手,通過Belago紅外LED實現(xiàn)精準(zhǔn)掃地機器人; 得益于Belago出色的紅外補光功能,使掃地機器人能夠大大提升其識別物體的能力,實現(xiàn)精準(zhǔn)
    的頭像 發(fā)表于 11-21 09:19 ?649次閱讀
    艾邁斯歐司朗Belago紅外LED,助力Supernode打造<b class='flag-5'>避</b><b class='flag-5'>障</b>掃地<b class='flag-5'>機器人</b>

    機器人紅外

    機器人紅外
    發(fā)表于 09-19 12:57 ?0次下載

    思嵐科技全場景機器人底盤Apollo2.0的特性

    機器人底盤是機器人系統(tǒng)中至關(guān)重要的組成部分,它承載著機器人移動、導(dǎo)航、等基礎(chǔ)功能。同時,也給了機器人
    的頭像 發(fā)表于 09-13 11:15 ?822次閱讀
    思嵐科技全場景<b class='flag-5'>機器人</b>底盤Apollo2.0的特性

    安防巡檢機器人:守護安全的智能衛(wèi)士

    了全天候、全方位、自主化的安全巡邏與監(jiān)控。安防巡檢機器人的出現(xiàn),不僅極大地提升了安防工作的效率和準(zhǔn)確性安全性。 一、安防巡檢機器人功能 1.自主導(dǎo)航與:通過高精度的導(dǎo)航系統(tǒng)和傳感器
    的頭像 發(fā)表于 07-29 10:44 ?1025次閱讀
    安防巡檢<b class='flag-5'>機器人</b>:守護安全的智能衛(wèi)士