一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

人工智能實(shí)現(xiàn)觸覺和視覺的信息交互

Hf1h_BigDataDig ? 來源:YXQ ? 2019-07-19 11:53 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在加拿大作家瑪格麗特?阿特伍德的著作《盲人殺手》中有這樣一段描述:“觸覺,先于視覺也先于語言,既是第一語言也是最后的語言,并總是訴說真相?!?/p>

被編寫為視覺或者觸覺的機(jī)器人一般不能實(shí)現(xiàn)此兩種感官信息的交互。為打破這種隔絕,來自MIT(麻省理工學(xué)院)CSAIL(計(jì)算機(jī)科學(xué)與人工智能實(shí)驗(yàn)室)的研究團(tuán)隊(duì)提出了一種可預(yù)測AI,它可以通過觸覺信息的訓(xùn)練學(xué)習(xí)到視覺特征,反之亦然,也能通過視覺信息的訓(xùn)練學(xué)習(xí)到物體的觸覺特征。

該團(tuán)隊(duì)所提出的模型可以從視覺信號中“創(chuàng)造”出逼真的觸覺信號,并直接利用觸覺信息預(yù)測所檢測目標(biāo)及觸摸部位。他們使用的庫卡機(jī)械臂上裝有一個(gè)特殊的觸覺傳感器GelSight,這是由MIT的另一研究團(tuán)隊(duì)設(shè)計(jì)的。

該團(tuán)隊(duì)利用一個(gè)簡單的網(wǎng)絡(luò)攝像頭采集了近200種物體圖像,包括工具、家庭用品、紡織物等,這些物體被“觸摸”超過12000次。通過將這12000個(gè)小視頻分解為靜態(tài)幀從而生成了名為“VisGel”的數(shù)據(jù)集,該數(shù)據(jù)集包含300多萬個(gè)視覺-觸覺對應(yīng)的圖像。

CSALL博士生Yunzhu Li在其一篇相關(guān)論文中談到:“通過觀察觸摸情景,我們的模型可以“想象”出觸摸平坦表面或者尖銳邊緣的感覺”,“當(dāng)機(jī)器人只有觸覺感官的時(shí)候,此模型可以僅憑觸覺信號來完成和周圍環(huán)境的交互。將觸覺和視覺這兩種感官結(jié)合在一起無疑是錦上添花。它還可能減少機(jī)器人為完成抓取任務(wù)所需的數(shù)據(jù)集”。

目前使能機(jī)器人具備更多感官能力的研究,比如MIT在2016年的項(xiàng)目:利用深度學(xué)習(xí)實(shí)現(xiàn)聲音可視化、預(yù)測物體對外力反應(yīng),都使用了大量的訓(xùn)練數(shù)據(jù),但不能實(shí)現(xiàn)視覺和觸覺的交互。該團(tuán)隊(duì)使用VisGel數(shù)據(jù)集和生成式對抗網(wǎng)絡(luò)(GANs)實(shí)現(xiàn)上述功能。

此GANs算法利用視覺或觸覺的圖像生成其他形式的圖像。其原理簡而言之,就是GANs利用生成器(generator)捏造假的圖像試圖騙過判別器(discriminator),判別器將辨別結(jié)果反饋給生成器以調(diào)參,以使得生成器生成更高質(zhì)量的預(yù)期圖像,如此相得益彰。

所見即所觸

人可以通過觀察物體來判斷其手感,欲將這種能力賦予機(jī)器人,首先要標(biāo)定目標(biāo)位置,其次要推斷目標(biāo)區(qū)域的形狀和手感。

為此,需要一張參考圖像,它記錄了機(jī)器人沒有與外界交互時(shí)的所處的環(huán)境信息。模型在識別過程中會對比當(dāng)前捕捉到的幀圖像和參考圖像以輕松判斷所觸物體的位置和大小。

好比給模型“看”了一張鼠標(biāo)的圖像,模型將預(yù)測可能觸碰到鼠標(biāo)的區(qū)域,并告訴機(jī)器人從而使其實(shí)現(xiàn)安全高效的抓取任務(wù)。

所觸即所見

利用觸覺數(shù)據(jù)產(chǎn)生視覺圖像即所謂“所觸即所見”。模型通過觀察觸覺圖像推斷所接觸位置的物體形狀和材質(zhì),并和參考圖像對比進(jìn)而“想象”出交互過程。

舉個(gè)例子,將一只鞋的觸覺數(shù)據(jù)傳給模型,其輸出將是一張圖像,這張圖像則顯示了最有可能觸摸到這只鞋的區(qū)域位置。

當(dāng)燈被關(guān)掉,或者盲人進(jìn)入未知區(qū)域的時(shí)候,這種技能就可以發(fā)揮其作用了。

展望

目前的訓(xùn)練數(shù)據(jù)只能實(shí)現(xiàn)特定環(huán)境下的交互。該團(tuán)隊(duì)希望收集更復(fù)雜環(huán)境下的訓(xùn)練數(shù)據(jù)以提升模型的泛化性能。MIT的新設(shè)計(jì)——tactile glove或許可以幫助他們獲取更多更密集的訓(xùn)練數(shù)據(jù)。

翹首以盼,此類模型將協(xié)助機(jī)器人和其視覺緊密合作以實(shí)現(xiàn)無縫的人機(jī)交互。這些合作包括對象識別、抓取、場景理解等。

加州大學(xué)伯克利分校的博士后Andrew Owens說:“這是首次提出的視覺和觸覺信號可靠的轉(zhuǎn)換方法,此類方法于機(jī)器人而言將大有裨益,彼時(shí),它們就可以回答諸如‘這東西的硬度如何?’,‘如果我用手柄握住馬克杯,我會握得多好?’的問題,這是一個(gè)十分有挑戰(zhàn)性的項(xiàng)目,因?yàn)閱栴}的信號是如此的不同,其優(yōu)越性也可見一斑”。

李和MIT的教授Russ Tedrake 、 Antonio Torralba,博士后Jun-Yan Zhu共同完成這篇論文。它將于下周在加利福尼亞長沙灘上舉辦的計(jì)算機(jī)視覺及模式識別大會上發(fā)布。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1806

    文章

    48984

    瀏覽量

    248885
  • MIT
    MIT
    +關(guān)注

    關(guān)注

    3

    文章

    254

    瀏覽量

    24386

原文標(biāo)題:所見即所觸,教AI實(shí)現(xiàn)觸覺和視覺的信息交互

文章出處:【微信號:BigDataDigest,微信公眾號:大數(shù)據(jù)文摘】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    最新人工智能硬件培訓(xùn)AI 基礎(chǔ)入門學(xué)習(xí)課程參考2025版(大模型篇)

    人工智能大模型重塑教育與社會發(fā)展的當(dāng)下,無論是探索未來職業(yè)方向,還是更新技術(shù)儲備,掌握大模型知識都已成為新時(shí)代的必修課。從職場上輔助工作的智能助手,到課堂用于學(xué)術(shù)研究的智能工具,大模型正在工作生活
    發(fā)表于 07-04 11:10

    人工智能視覺識別技術(shù)的應(yīng)用領(lǐng)域及場景

    人工智能視覺識別技術(shù)的應(yīng)用領(lǐng)域及場景
    的頭像 發(fā)表于 03-14 11:41 ?983次閱讀

    上海交大團(tuán)隊(duì)發(fā)表MEMS視觸覺融合多模態(tài)人機(jī)交互新進(jìn)展

    ? 近日,上海交通大學(xué)電子信息與電氣工程學(xué)院微米納米加工技術(shù)全國重點(diǎn)實(shí)驗(yàn)室劉景全團(tuán)隊(duì)和上海交通大學(xué)人工智能學(xué)院盧策吾團(tuán)隊(duì)在人機(jī)交互領(lǐng)域取得重要進(jìn)展,相關(guān)成果以“Capturing forceful
    的頭像 發(fā)表于 11-28 10:50 ?2407次閱讀
    上海交大團(tuán)隊(duì)發(fā)表MEMS視<b class='flag-5'>觸覺</b>融合多模態(tài)人機(jī)<b class='flag-5'>交互</b>新進(jìn)展

    嵌入式和人工智能究竟是什么關(guān)系?

    嵌入式和人工智能究竟是什么關(guān)系? 嵌入式系統(tǒng)是一種特殊的系統(tǒng),它通常被嵌入到其他設(shè)備或機(jī)器中,以實(shí)現(xiàn)特定功能。嵌入式系統(tǒng)具有非常強(qiáng)的適應(yīng)性和靈活性,能夠根據(jù)用戶需求進(jìn)行定制化設(shè)計(jì)。它廣泛應(yīng)用于各種
    發(fā)表于 11-14 16:39

    如何利用FPGA技術(shù)革新視覺人工智能應(yīng)用?

    嵌入式視覺人工智能應(yīng)用通過在邊緣實(shí)現(xiàn)高度復(fù)雜的實(shí)時(shí)視頻流處理和決策,正在為各行各業(yè)帶來變革。這些應(yīng)用范圍從自動(dòng)駕駛到智能制造,其中快速分析視覺
    的頭像 發(fā)表于 10-16 08:03 ?855次閱讀
    如何利用FPGA技術(shù)革新<b class='flag-5'>視覺</b><b class='flag-5'>人工智能</b>應(yīng)用?

    《AI for Science:人工智能驅(qū)動(dòng)科學(xué)創(chuàng)新》第6章人AI與能源科學(xué)讀后感

    、優(yōu)化等方面的應(yīng)用有了更清晰的認(rèn)識。特別是書中提到的基于大數(shù)據(jù)和機(jī)器學(xué)習(xí)的能源管理系統(tǒng),通過實(shí)時(shí)監(jiān)測和分析能源數(shù)據(jù),實(shí)現(xiàn)了能源的高效利用和智能化管理。 其次,第6章通過多個(gè)案例展示了人工智能在能源科學(xué)中
    發(fā)表于 10-14 09:27

    AI for Science:人工智能驅(qū)動(dòng)科學(xué)創(chuàng)新》第4章-AI與生命科學(xué)讀后感

    很幸運(yùn)社區(qū)給我一個(gè)閱讀此書的機(jī)會,感謝平臺。 《AI for Science:人工智能驅(qū)動(dòng)科學(xué)創(chuàng)新》第4章關(guān)于AI與生命科學(xué)的部分,為我們揭示了人工智能技術(shù)在生命科學(xué)領(lǐng)域中的廣泛應(yīng)用和深遠(yuǎn)影響。在
    發(fā)表于 10-14 09:21

    《AI for Science:人工智能驅(qū)動(dòng)科學(xué)創(chuàng)新》第一章人工智能驅(qū)動(dòng)的科學(xué)創(chuàng)新學(xué)習(xí)心得

    周末收到一本新書,非常高興,也非常感謝平臺提供閱讀機(jī)會。 這是一本挺好的書,包裝精美,內(nèi)容詳實(shí),干活滿滿。 《AI for Science:人工智能驅(qū)動(dòng)科學(xué)創(chuàng)新》這本書的第一章,作為整個(gè)著作的開篇
    發(fā)表于 10-14 09:12

    risc-v在人工智能圖像處理應(yīng)用前景分析

    人工智能推薦系統(tǒng)中強(qiáng)大的圖形處理器(GPU)一爭高下。其獨(dú)特的設(shè)計(jì)使得該處理器在功耗受限的條件下仍能實(shí)現(xiàn)高性能的圖像處理任務(wù)。 Ceremorphic公司 :該公司開發(fā)的分層學(xué)習(xí)處理器結(jié)合了
    發(fā)表于 09-28 11:00

    人工智能ai4s試讀申請

    目前人工智能在繪畫對話等大模型領(lǐng)域應(yīng)用廣闊,ai4s也是方興未艾。但是如何有效利用ai4s工具助力科研是個(gè)需要研究的課題,本書對ai4s基本原理和原則,方法進(jìn)行描訴,有利于總結(jié)經(jīng)驗(yàn),擬按照要求準(zhǔn)備相關(guān)體會材料??茨芊裼兄谌腴T和提高ss
    發(fā)表于 09-09 15:36

    名單公布!【書籍評測活動(dòng)NO.44】AI for Science:人工智能驅(qū)動(dòng)科學(xué)創(chuàng)新

    ! 《AI for Science:人工智能驅(qū)動(dòng)科學(xué)創(chuàng)新》 這本書便將為讀者徐徐展開AI for Science的美麗圖景,與大家一起去了解: 人工智能究竟幫科學(xué)家做了什么? 人工智能將如何改變我們所生
    發(fā)表于 09-09 13:54

    報(bào)名開啟!深圳(國際)通用人工智能大會將啟幕,國內(nèi)外大咖齊聚話AI

    呈現(xiàn)、產(chǎn)業(yè)展覽、技術(shù)交流、學(xué)術(shù)論壇于一體的世界級人工智能合作交流平臺。本次大會暨博覽會由工業(yè)和信息化部政府采購中心、廣東省工商聯(lián)、前海合作區(qū)管理局、深圳市工信局等單位指導(dǎo),深圳市人工智能產(chǎn)業(yè)協(xié)會主辦
    發(fā)表于 08-22 15:00

    FPGA在人工智能中的應(yīng)用有哪些?

    FPGA(現(xiàn)場可編程門陣列)在人工智能領(lǐng)域的應(yīng)用非常廣泛,主要體現(xiàn)在以下幾個(gè)方面: 一、深度學(xué)習(xí)加速 訓(xùn)練和推理過程加速:FPGA可以用來加速深度學(xué)習(xí)的訓(xùn)練和推理過程。由于其高并行性和低延遲特性
    發(fā)表于 07-29 17:05

    人工智能計(jì)算機(jī)視覺

    人工智能教學(xué)資料。
    發(fā)表于 07-18 11:31 ?0次下載

    機(jī)器視覺人工智能的關(guān)系與應(yīng)用

    視覺信息的技術(shù)。它涉及到圖像的獲取、處理、分析和解釋,以實(shí)現(xiàn)對物體、場景和事件的識別、定位、測量和分類。機(jī)器視覺系統(tǒng)通常由圖像采集設(shè)備、圖像處理軟件和執(zhí)行器組成,可以應(yīng)用于各種自動(dòng)化
    的頭像 發(fā)表于 07-16 10:27 ?1644次閱讀