一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

機(jī)器人也將擁有和人類一樣的觸覺分析能力?

中科院長春光機(jī)所 ? 來源:機(jī)器之心 ? 作者:機(jī)器之心 ? 2020-12-23 10:31 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

人類善于利用手指觸覺來感知物體的物理特性(包括質(zhì)量、重心、轉(zhuǎn)動慣量、表面摩擦等),從而完成高難度的控制任務(wù)。在不遠(yuǎn)的將來,機(jī)器人也會擁有觸覺分析能力。在剛剛結(jié)束的機(jī)器人頂會 IROS 2020 上,上海交大 & MIT 聯(lián)合項(xiàng)目 SwingBot 為我們展示了如何讓機(jī)器人通過觸覺傳感器來學(xué)習(xí)感知物體復(fù)雜的物理特性(tactile exploration),從而完成一個高難度的甩筆任務(wù)(in-hand object swing-up)。該工作也摘得此次大會的最佳論文獎項(xiàng)。

IROS2020 最佳論文獎項(xiàng)。來源 iros2020.org (http://iros2020.org/) 下圖為機(jī)器人觸覺分析的流程通過握著物體旋轉(zhuǎn)一定角度和抖動物體來感知物理特性,從而推斷出最佳的控制策略實(shí)現(xiàn)甩筆。

該項(xiàng)目通過對多種觸覺探索動作的信息融合,讓機(jī)器人端到端的去學(xué)習(xí)概括手中物體的物理特性,并依靠這個物理特征來實(shí)現(xiàn)高難度的手上控制任務(wù)(in-hand swing-up)。更多的詳細(xì)內(nèi)容可以訪問論文原文和項(xiàng)目主頁:

高精度、低成本的觸覺傳感器 研究人員使用的是一款名為 GelSight 的機(jī)器人觸覺傳感器,該傳感器也發(fā)明于此 MIT 項(xiàng)目組(指導(dǎo)教授:Edward Adelson)。區(qū)別于傳統(tǒng)觸覺傳感器依賴于稀疏的電極陣列(基于電阻 / 電容 ),GelSight 是一個基于光學(xué)的觸覺傳感器,通過一個微型相機(jī)來拍攝接觸面的三維幾何形變,可以返回高精度的觸覺信息(見下圖是 GelSight 重建的奧利奧餅干表面)。 更值得一提的是,因?yàn)橹恍枰粋€低成本的微型攝像頭和一個樹莓派控制器,GelSight 的制作總成本只有 100 美金(700 元),遠(yuǎn)低于市面上的其他觸覺傳感器。

GelSight 觸覺信息效果圖。來源:[2] 在本篇工作中,研究人員將 GelSight 安裝在了機(jī)器人二爪夾具的一側(cè),通過在傳感器上標(biāo)定靶點(diǎn)和重建三維信息,高密度的力學(xué)反饋可以以每秒60幀的速度實(shí)時傳輸出來。

基于多種觸覺探索動作的物理特性分析能力 人類可以通過多種觸覺探索動作(觸摸、甩、掂量)來概括手上物體的物理特性(重量、光滑程度、重心位置等)[1],而且人類并不需要測量這些物理參數(shù)的精確數(shù)值,而是用自己的經(jīng)驗(yàn)結(jié)合觸覺手感來實(shí)現(xiàn)對手中物體高難度的控制。 受這個觀察的啟發(fā),該項(xiàng)目的研究人員首先提出了一個多觸覺探索的信息融合模型(Information fusion model for multiple tactile exploration actions),該模型的目的是整合不同的機(jī)器人觸覺探索動作信息到一個共同的物理特性特征空間(Physical embedding)中,從而實(shí)現(xiàn)對物體多種物理特性(質(zhì)量、重心位置、轉(zhuǎn)動慣量和摩擦力)的概括能力。

多觸覺探索動作的信息融合模型。來源:論文 研究人員為機(jī)器人設(shè)計了兩種基礎(chǔ)的探索動作:(1)緊握物體并旋轉(zhuǎn)一定角度(in-hand tilting)和(2)放松緊握狀態(tài)并抖動物體(in-hand shaking)。動作(1)的觸覺反饋信息會通過一個卷積神經(jīng)網(wǎng)絡(luò)(CNN)來輸出一個一維的特征向量;動作

(2)的抖動因?yàn)槭菚r序信息,會用一個循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)來處理獲得相應(yīng)的特征。這兩個特征信息通過拼接和一個由若干多層感知器(MLP)組成的融合模型進(jìn)行整合,得到一個低維的物理特征概括(physical feature embedding)。 區(qū)別于逐個測量每種不同的物理特性,這種信息整合模型的一大優(yōu)勢是可以根據(jù)任務(wù)來自主調(diào)節(jié)對不同物理信息的關(guān)注程度,因?yàn)楹芏嗳蝿?wù)是無法明確分析出是哪一種物理特性起到了主導(dǎo)作用,而使用該方法可以讓機(jī)器人自主地學(xué)習(xí)并選擇需要的物理信息。此外,這兩個觸覺探索動作加起來只需要 7 秒的時間,相比于用精密的儀器來逐個測量物體的質(zhì)量和摩擦力等,該方法的效率也有很大的提升,并且不需要額外的測量儀器的輔助,更接近人類的觸覺感知能力。 此外,為了讓機(jī)器人自主學(xué)習(xí)選擇最需要的物理信息,研究人員接著提出了一個控制預(yù)測模型,該模型通過輸入先前獲得的物理特征向量和機(jī)器人控制參數(shù),來預(yù)測最終物體會被甩到的角度。在訓(xùn)練過程中,整個流程是用一個端到端(end-to-end)的訓(xùn)練算法來實(shí)現(xiàn)的。研究人員設(shè)計了一個機(jī)器人自動采集數(shù)據(jù)的系統(tǒng),并且 3D 打印了可以隨意調(diào)節(jié)物理特性的模型來采集數(shù)據(jù),具體如下兩個動圖所示:

可變物理特性的模板物體。

數(shù)據(jù)收集流程。 研究人員讓機(jī)器人自主采集了1350次甩筆的數(shù)據(jù),其中包含了27個不同物理特性的物體。在測試的時候,研究人員額外選擇了6個訓(xùn)練數(shù)據(jù)中不包含(unseen)的新物體,機(jī)器人需要通過觸覺探索模型來確定未知物體的物理特性,并根據(jù)任務(wù)要求的最終甩到的角度,來選擇一套成功率最高的控制參數(shù)。 實(shí)驗(yàn)成果 研究人員首先對比了使用和不使用多觸覺探索融合算法對預(yù)測控制模型準(zhǔn)確率的影響(數(shù)值越低,準(zhǔn)確度越高),其中融合算法(Comb.)在已知和未知物體上的預(yù)測誤差率都遠(yuǎn)低于不使用觸覺信息(None)。此外融合算法(Comb.)的表現(xiàn)也比單一使用一種觸覺探索動作(Tilt.: tilting-only, Shak.:shaking-only)的算法效果好。

002ced22-4492-11eb-8b86-12bb97331649.png

以下是機(jī)器人在測試過程中,通過使用多觸覺探索融合算法來實(shí)現(xiàn)對未知物體(unseen objects)的物理特性探索和上甩效果(swing-up)。第一個任務(wù)要求將物體上甩至相對于傳感器 90 度的角度位置:

第二個任務(wù)要求將物體上甩至相對于傳感器 180 度的位置:

研究人員緊接著探索融合算法學(xué)習(xí)到的物理特征空間到底包含哪些信息。他們用一組額外的多層感知器來回歸(regression)每一個物理特性的具體參數(shù),并計算誤差百分比(數(shù)值越低,準(zhǔn)確度越高)。 如下表所示,可以發(fā)現(xiàn)第一個旋轉(zhuǎn)動作(Tilting)對物體的質(zhì)量(Mass)、重心(Center of mass)和轉(zhuǎn)動慣量(Moment of inertia)的信息捕捉更準(zhǔn)確。而第二個搖晃動作(Shaking)對物體接觸部分的摩擦力(Friction)的把握更準(zhǔn)。將兩種探索動作融合的算法(Combined)取得了最好的回歸準(zhǔn)確率。

07fde7b8-4492-11eb-8b86-12bb97331649.png

最后研究人員進(jìn)一步探索所學(xué)習(xí)到的物理特征空間是如何能夠做到對未知物體依然適用的。他們可視化了6個未知物體的數(shù)據(jù)分布并展示在了下圖 (b) 中,其中 x 軸表示控制參數(shù),y 軸表示最終上甩的角度。在圖 (a) 中,研究人員用 PCA 提取了每個采樣中網(wǎng)絡(luò)輸出的物理特征向量的主成分(2 維)并可視化在這個二維點(diǎn)圖中。觀察可以發(fā)現(xiàn),如果兩個物體的控制策略相近(例如物體 5 和物體 6),他們的物理特征間距也會越近,而兩個物體的控制策略相差較大(例如物體 1 和物體 4),則在特征空間上的間距也會更大。

物理特征可視化。

原文標(biāo)題:機(jī)器人也能「甩筆」,擁有觸覺分析能力

文章出處:【微信公眾號:中科院長春光機(jī)所】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

責(zé)任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 傳感器
    +關(guān)注

    關(guān)注

    2564

    文章

    52834

    瀏覽量

    765813
  • 機(jī)器人
    +關(guān)注

    關(guān)注

    213

    文章

    29650

    瀏覽量

    212309
  • 觸覺
    +關(guān)注

    關(guān)注

    0

    文章

    20

    瀏覽量

    9534

原文標(biāo)題:機(jī)器人也能「甩筆」,擁有觸覺分析能力

文章出處:【微信號:cas-ciomp,微信公眾號:中科院長春光機(jī)所】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    南京工業(yè)大學(xué):仿生觸覺傳感系統(tǒng)讓機(jī)器人擁有人類指尖”般的細(xì)膩感知

    ? 想象下,未來的機(jī)器人不僅能靈活抓取物體,還能像人類一樣感知絲綢的順滑、砂紙的粗糙,甚至區(qū)分不同面料的細(xì)微紋理。這切的關(guān)鍵在于“
    的頭像 發(fā)表于 06-14 17:32 ?183次閱讀
    南京工業(yè)大學(xué):仿生<b class='flag-5'>觸覺</b>傳感系統(tǒng)讓<b class='flag-5'>機(jī)器人</b><b class='flag-5'>擁有</b>“<b class='flag-5'>人類</b>指尖”般的細(xì)膩感知

    明遠(yuǎn)智睿SSD2351開發(fā)板:語音機(jī)器人領(lǐng)域的變革力量

    通過網(wǎng)絡(luò)連接云端服務(wù)器進(jìn)行快速檢索和分析,然后利用語音合成技術(shù)答案以自然流暢的語音反饋給用戶。同時,借助開發(fā)板的網(wǎng)絡(luò)連接功能,語音機(jī)器人還可以與后臺管理系統(tǒng)進(jìn)行數(shù)據(jù)交互,實(shí)時更新知識庫和優(yōu)化服務(wù)策略
    發(fā)表于 05-28 11:36

    從感知到運(yùn)控:具身智能機(jī)器人控制器的雙腦協(xié)同設(shè)計與場景適配

    ,則是協(xié)調(diào)全身的“大腦”與“小腦”,既要像大腦一樣思考決策,又要像小腦一樣精準(zhǔn)控制運(yùn)動。作為具身智能機(jī)器人的核心樞紐,控制器直接決定了它能否在復(fù)雜場景中“像
    的頭像 發(fā)表于 05-11 17:42 ?279次閱讀
    從感知到運(yùn)控:具身智能<b class='flag-5'>機(jī)器人</b>控制器的雙腦協(xié)同設(shè)計與場景適配

    為什么要費(fèi)這么大勁讓機(jī)器人一樣,而不是更實(shí)用的形態(tài)?

    為什么要費(fèi)這么大勁讓機(jī)器人一樣,而不是更實(shí)用的形態(tài)? 機(jī)器人設(shè)計成人形(即仿人機(jī)器人)的意
    的頭像 發(fā)表于 02-10 10:03 ?356次閱讀

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】2.具身智能機(jī)器人的基礎(chǔ)模塊

    ,次生成深度信息。 自主機(jī)器人定位任務(wù)的本質(zhì)是對機(jī)器人自身狀態(tài)的估計問題,包括位置,朝向,速度等問題。 路徑規(guī)劃旨在找到從起點(diǎn)到目標(biāo)區(qū)域的路徑,確保路徑的可行性和最優(yōu)性。路徑規(guī)劃方法包括變分方法,圖搜
    發(fā)表于 01-04 19:22

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】2.具身智能機(jī)器人大模型

    、醫(yī)療、服務(wù)等領(lǐng)域的應(yīng)用前景更加廣闊,使得人類能夠更輕松地借助機(jī)器完成復(fù)雜工作。我深刻認(rèn)識到,大模型技術(shù)正在從根本上改變我們對機(jī)器人能力
    發(fā)表于 12-29 23:04

    《具身智能機(jī)器人系統(tǒng)》第7-9章閱讀心得之具身智能機(jī)器人與大模型

    將自然語言理解與運(yùn)動規(guī)劃融為體。這種端到端的方法使機(jī)器人能夠直接從人類指令生成動作序列,大幅簡化了控制流程。該項(xiàng)目的工作流程包含設(shè)計并封裝一個人機(jī)器人函數(shù)庫、編寫清晰地描述提示詞、在
    發(fā)表于 12-24 15:03

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】+數(shù)據(jù)在具身人工智能中的價值

    嵌入式人工智能(EAI)人工智能集成到機(jī)器人等物理實(shí)體中,使它們能夠感知、學(xué)習(xí)環(huán)境并與之動態(tài)交互。這種能力使此類機(jī)器人能夠在人類社會中有效
    發(fā)表于 12-24 00:33

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】+初品的體驗(yàn)

    的快速發(fā)展,相關(guān)人才的需求在不斷增加,通過閱讀該書可以幫助大家系統(tǒng)性地了解和分析當(dāng)前具身智能機(jī)器人系統(tǒng)的發(fā)展現(xiàn)狀和前沿研究,為未來的研究和開發(fā)工作提供指導(dǎo)。此外,本書還可以為研究人員和工程師提供具體
    發(fā)表于 12-20 19:17

    這批中國企業(yè),在做人形機(jī)器人觸覺傳感器

    日前,Meta公布了旗下FAIR(基礎(chǔ)人工智能研究)團(tuán)隊(duì)在機(jī)器人觸覺感知能力上的最新研究成果。其中包含了款名為Digit 360的高精度傳感器,其主要部署在
    的頭像 發(fā)表于 11-18 18:28 ?1578次閱讀

    名單公布!【書籍評測活動NO.51】具身智能機(jī)器人系統(tǒng) | 了解AI的下個浪潮!

    機(jī)器人已經(jīng)從簡單模仿人類動作逐步過渡到賦予機(jī)器人更高級的自主決策能力。 國際上的科技巨頭(如波士頓動力、特斯拉和軟銀)都在這領(lǐng)域取得了顯著
    發(fā)表于 11-11 10:20

    觸覺傳感器的發(fā)展,對機(jī)器人產(chǎn)業(yè)有什么影響?

    的傳感器,通過測量與環(huán)境物理交互產(chǎn)生的信息來工作,為機(jī)器人提供了更為精準(zhǔn)和靈活的操作能力。本文深入探討觸覺傳感器的發(fā)展及其在機(jī)器人產(chǎn)業(yè)中的
    的頭像 發(fā)表于 10-23 18:25 ?1033次閱讀

    解鎖機(jī)器人視覺與人工智能的潛力,從“盲人機(jī)器”改造成有視覺能力機(jī)器人(上)

    正如人類依賴眼睛和大腦來解讀世界,機(jī)器人需要自己的視覺系統(tǒng)來有效運(yùn)作。沒有視覺,機(jī)器人就如同蒙上雙眼的人類,僅能執(zhí)行預(yù)編程的命令,容易碰撞
    的頭像 發(fā)表于 10-12 09:56 ?748次閱讀
    解鎖<b class='flag-5'>機(jī)器人</b>視覺與人工智能的潛力,從“盲人<b class='flag-5'>機(jī)器</b>”改造成有視覺<b class='flag-5'>能力</b>的<b class='flag-5'>機(jī)器人</b>(上)

    開源項(xiàng)目!用ESP32做個可愛的無用機(jī)器人

    巧妙設(shè)計的杠桿開關(guān)推回“關(guān)”位置。這種玩具很常見,許多人已經(jīng)制作并上傳到Y(jié)ouTube上。 作者每年都會挑戰(zhàn)自己制作個技術(shù)產(chǎn)品,今年他決定制作這個復(fù)雜的項(xiàng)目——可愛無用機(jī)器人。這個機(jī)器人
    發(fā)表于 09-03 09:34

    Al大模型機(jī)器人

    理解能力強(qiáng)大: AI大模型機(jī)器人可以理解和生成自然語言,能夠進(jìn)行復(fù)雜的對話和語言任務(wù)。它們能夠識別語言中的語義、語境和情感,并據(jù)此作出適當(dāng)?shù)幕貞?yīng)。廣泛的知識儲備: 這些模型基于大規(guī)模的數(shù)據(jù)集進(jìn)行訓(xùn)練,擁有
    發(fā)表于 07-05 08:52