一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

DeepMind全新AI項(xiàng)目曝光:可控制各類機(jī)器人,數(shù)據(jù)集有望開源

jf_WZTOguxH ? 來源:AI前線 ? 2023-10-09 15:41 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

DeepMind 的新項(xiàng)目是什么?

開發(fā)機(jī)器人技術(shù)的一大挑戰(zhàn),就在于必須投入大量精力來為每臺(tái)機(jī)器人、每項(xiàng)任務(wù)和每種環(huán)境訓(xùn)練機(jī)器學(xué)習(xí)模型。近日,谷歌 DeepMind 團(tuán)隊(duì)及其他 33 個(gè)研究機(jī)構(gòu)正共同發(fā)起新項(xiàng)目,旨在創(chuàng)建一套通用 AI 系統(tǒng)來應(yīng)對(duì)這個(gè)挑戰(zhàn)。據(jù)稱該系統(tǒng)能夠與不同類型的物理機(jī)器人協(xié)同運(yùn)作,成功執(zhí)行多種任務(wù)。

谷歌機(jī)器人部門高級(jí)軟件工程師 Pannag Sanketi 在采訪中表示,“我們觀察到,機(jī)器人在專項(xiàng)領(lǐng)域表現(xiàn)極佳,但在通用領(lǐng)域卻缺乏靈性。一般來講,大家需要為每項(xiàng)任務(wù)、每臺(tái)機(jī)器人和每種環(huán)境分別訓(xùn)練一套模型,從零開始調(diào)整每一個(gè)變量?!?/p>

為了克服這個(gè)問題,讓機(jī)器人的訓(xùn)練和部署變得更加輕松、快捷,谷歌 DeepMind 在名為 Open X-Embodiment 的大型共享數(shù)據(jù)庫(kù)項(xiàng)目中引入了兩大關(guān)鍵組件:一套包含了 22 種機(jī)器人類型數(shù)據(jù)的數(shù)據(jù)集,外加一系列能夠跨多種任務(wù)進(jìn)行技能遷移的模型 RT-1-X(這是一個(gè)源自 RT-1 的機(jī)器人變壓器模型)。為了開發(fā) Open X-Embodiment 數(shù)據(jù)集,研發(fā)人員在超過 100 萬個(gè)場(chǎng)景中展示了 500 多種技能和 150,000 項(xiàng)任務(wù),因此,該數(shù)據(jù)集也是同類中最全面的機(jī)器人數(shù)據(jù)集。

此外,研究人員還在機(jī)器人實(shí)驗(yàn)室和不同類型的物理裝置之上對(duì)模型進(jìn)行了測(cè)試,并發(fā)現(xiàn)與傳統(tǒng)機(jī)器人訓(xùn)練方法相比,新方案確實(shí)能取得更好的成績(jī)。

139c5730-666d-11ee-939d-92fbcf53809c.png

來自 Open X-Embodiment 數(shù)據(jù)集的樣本展示了 500 多種技能和 150,000 項(xiàng)任務(wù)。

13b3be70-666d-11ee-939d-92fbcf53809c.png

Open X-Embodiment 數(shù)據(jù)集結(jié)合了跨實(shí)施例、數(shù)據(jù)集和技能的數(shù)據(jù)。

結(jié)合機(jī)器人數(shù)據(jù)

通常來講,不同類型的機(jī)器人往往擁有獨(dú)特的傳感器和執(zhí)行器,所以需要配合專門的軟件模型。這就類似于不同生物體的大腦和神經(jīng)系統(tǒng)需要專門進(jìn)化,從而適應(yīng)該生物的身體結(jié)構(gòu)與所處環(huán)境。

但 Open X-Embodiment 的誕生卻出于這樣一條先驗(yàn)性的假設(shè):將來自不同機(jī)器人和任務(wù)的數(shù)據(jù)結(jié)合起來,就能創(chuàng)建一套優(yōu)于專用模型的通用模型,足以驅(qū)動(dòng)所有類型的機(jī)器人。這個(gè)概念在一定程度上受到大語(yǔ)言模型(LLM)的啟發(fā),即在使用大型通用數(shù)據(jù)集進(jìn)行訓(xùn)練時(shí),模型成果的匹配度甚至可以優(yōu)于在特定數(shù)據(jù)集上訓(xùn)練的小型針對(duì)性模型。而研究人員驚喜地發(fā)現(xiàn),此項(xiàng)原理果然也適用于機(jī)器人領(lǐng)域。

為了創(chuàng)建 Open X-Embodiment 數(shù)據(jù)集,研究團(tuán)隊(duì)收集了來自不同國(guó)家 20 個(gè)機(jī)構(gòu)的 22 臺(tái)機(jī)器人具身的真實(shí)數(shù)據(jù)。該數(shù)據(jù)集包含超 100 萬種情節(jié)(所謂情節(jié),是指機(jī)器人每次嘗試執(zhí)行任務(wù)時(shí)所采取的一系列動(dòng)作),其中具體涉及 500 多種技能和 15 萬個(gè)任務(wù)示例。

隨附的各模型均基于 Transformer,一套在大語(yǔ)言模型中也得以應(yīng)用的深度學(xué)習(xí)架構(gòu)。RT-1-X 建立在 Robotics Transformer 1(簡(jiǎn)稱 RT-1)之上,是一套適用于在真實(shí)環(huán)境下實(shí)現(xiàn)機(jī)器人技術(shù)規(guī)模化的多任務(wù)模型。RT-2-X 則建立在 RT-1 后繼者 RT-2 的基礎(chǔ)之上——RT-2 是一種視覺語(yǔ)言動(dòng)作(VLA)模型,能夠從機(jī)器人和網(wǎng)絡(luò)數(shù)據(jù)中學(xué)習(xí),并具備響應(yīng)自然語(yǔ)言命令的能力。

研究人員在五所不同研究實(shí)驗(yàn)室的五臺(tái)常用機(jī)器人上測(cè)試了 RT-1-X 對(duì)各類任務(wù)的執(zhí)行能力。與針對(duì)這些機(jī)器人開發(fā)的專用模型相比,RT-1-X 在拾取和移動(dòng)物體、以及開門等任務(wù)上的成功率高出 50%。該模型還能將技能遷移至多種不同環(huán)境,這也是在特定視覺場(chǎng)景下訓(xùn)練出的專用模型所做不到的。由此可見,由不同示例集訓(xùn)練而成的模型在大多數(shù)任務(wù)中都優(yōu)于專用模型。論文還提到,此模型適用于從機(jī)械手臂到四足動(dòng)物在內(nèi)的多種機(jī)器人。

加州大學(xué)伯克利分校副教授、論文聯(lián)合作者 Sergey Levine 寫道,“對(duì)于任何曾有機(jī)器人研究經(jīng)驗(yàn)的朋友來說,都能意識(shí)到這是多么了不起:這類模型「從來」就沒能第一次就嘗試成功,但這個(gè)模型卻做到了?!?/p>

13c8a75e-666d-11ee-939d-92fbcf53809c.png

值得注意的是,即使是規(guī)模較小的 RT-1-X 模型,也實(shí)現(xiàn)了對(duì)各實(shí)驗(yàn)室內(nèi)部專用模型的超越!對(duì)于任何曾有機(jī)器人研究經(jīng)驗(yàn)的朋友來說,都能意識(shí)到這是多么了不起:這類模型“從來”就沒能第一次就嘗試成功,但這個(gè)模型卻做到了。

在應(yīng)急技能和處理訓(xùn)練數(shù)據(jù)集中未涉及的新任務(wù)方面,RT-2-X 的成功率可達(dá) RT-2 的 3 倍。具體來講,RT-2-X 在需要空間認(rèn)知的任務(wù)上表現(xiàn)出更好的性能,例如理解“將蘋果放到布旁邊”和“將蘋果放到布上”兩種要求間的區(qū)別。

研究人員在 Open X 和 RT-X 的發(fā)布博文中寫道,“我們的結(jié)果表明,與其他平臺(tái)的數(shù)據(jù)進(jìn)行聯(lián)合訓(xùn)練之后,RT-2-X 獲得了原始數(shù)據(jù)集中并不具備的額外技能,使其能夠執(zhí)行前所未見的新任務(wù)。”

步步邁向機(jī)器人研究的新未來

展望未來,科學(xué)家們正在考慮將這些進(jìn)展與 DeepMind 開發(fā)的自我改進(jìn)模型 RoboCat 的見解相結(jié)合,希望探索出新的研究方向。RoboCat 能夠?qū)W會(huì)在不同機(jī)械臂上執(zhí)行各種任務(wù),然后自動(dòng)設(shè)計(jì)出新的訓(xùn)練數(shù)據(jù)以提高自身性能。

Sanketi 認(rèn)為,另一個(gè)潛在的研究方向,也可能是進(jìn)一步研究不同數(shù)據(jù)集間的混合會(huì)如何影響跨機(jī)器人具身的能力泛化與改進(jìn)效果。

該團(tuán)隊(duì)目前已經(jīng)開源了 Open X-Embodiment 數(shù)據(jù)集和小型 RT-1-X 模型,但并未公開 RT-2-X 模型。

Sanketi 總結(jié)道,“我們相信,這些工具將改變機(jī)器人的訓(xùn)練方式,并加速該領(lǐng)域的研究進(jìn)展。我們希望開源相關(guān)數(shù)據(jù),并提供安全但受限的模型以減少障礙、加速研究。機(jī)器人技術(shù)的未來離不開機(jī)器人之間的相互學(xué)習(xí),而這一切的前提,首先要求研究人員之間能夠相互學(xué)習(xí)?!?/p>

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 機(jī)器人
    +關(guān)注

    關(guān)注

    213

    文章

    29618

    瀏覽量

    212202
  • AI
    AI
    +關(guān)注

    關(guān)注

    88

    文章

    34781

    瀏覽量

    277162
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1223

    瀏覽量

    25368
  • DeepMind
    +關(guān)注

    關(guān)注

    0

    文章

    131

    瀏覽量

    11476

原文標(biāo)題:DeepMind 全新 AI 項(xiàng)目曝光:可控制各類機(jī)器人,數(shù)據(jù)集有望開源

文章出處:【微信號(hào):AI前線,微信公眾號(hào):AI前線】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    盤點(diǎn)#機(jī)器人開發(fā)平臺(tái)

    Athena機(jī)器人****開發(fā)平臺(tái)思嵐推出Athena機(jī)器人開發(fā)平臺(tái),有望主導(dǎo)機(jī)器人開發(fā)平臺(tái)未來市場(chǎng)-電子發(fā)燒友網(wǎng)AUTO CUBEROS機(jī)器人
    發(fā)表于 05-13 15:02

    自制一個(gè)支持AI 控制的無刷平衡車機(jī)器人開源項(xiàng)目D-BOT全攻略

    今天給大家介紹一款創(chuàng)意桌面機(jī)器人——D-BOT!它不僅是一個(gè)功能強(qiáng)大的平衡車機(jī)器人,也是一個(gè)融合了AI控制、3D建模與PCB設(shè)計(jì)的開源
    發(fā)表于 04-28 11:45

    【「# ROS 2智能機(jī)器人開發(fā)實(shí)踐」閱讀體驗(yàn)】+內(nèi)容初識(shí)

    、Gazebo仿真(含RGBD相機(jī)/激光雷達(dá)仿真)、實(shí)物機(jī)器人運(yùn)動(dòng)控制,實(shí)現(xiàn)\"仿真→實(shí)物\"的無縫銜接 高階應(yīng)用篇(7-9章) 聚焦視覺SLAM、自主導(dǎo)航等前沿場(chǎng)景,提供完整項(xiàng)目鏈路(如
    發(fā)表于 04-27 11:24

    大象機(jī)器人攜手進(jìn)迭時(shí)空推出 RISC-V 全棧開源六軸機(jī)械臂產(chǎn)品

    末端執(zhí)行器。 全棧開源 從RISC-V指令、芯片SDK到機(jī)器人控制代碼100%開放,開發(fā)者可自由定制算法與控制邏輯。 官方apt倉(cāng)庫(kù)提供d
    發(fā)表于 04-25 17:59

    NVIDIA推出開源物理AI數(shù)據(jù)

    標(biāo)準(zhǔn)化合成數(shù)據(jù)的初始版本預(yù)計(jì)將成為世界上最大的此類數(shù)據(jù),目前已作為開源版本提供給機(jī)器人開發(fā)人員。
    的頭像 發(fā)表于 03-24 17:52 ?594次閱讀

    NVIDIA 發(fā)布全球首個(gè)開源人形機(jī)器人基礎(chǔ)模型 Isaac GR00T N1——并推出加速機(jī)器人開發(fā)的仿真框架

    推出完全可定制的 GR00T N1 基礎(chǔ)模型,為人形機(jī)器人賦予通用技能與推理技能 NVIDIA、Google DeepMind 和 Disney Research 合作開發(fā)新一代開源物理引擎
    發(fā)表于 03-19 09:30 ?416次閱讀
    NVIDIA 發(fā)布全球首個(gè)<b class='flag-5'>開源</b>人形<b class='flag-5'>機(jī)器人</b>基礎(chǔ)模型 Isaac GR00T N1——并推出加速<b class='flag-5'>機(jī)器人</b>開發(fā)的仿真框架

    開源項(xiàng)目!基于Arduino控制的六足機(jī)器人

    這款六足機(jī)器人的設(shè)計(jì)靈感來源于Trossen Robotics的PhantomX AX型號(hào)。原版PhantomX(已停產(chǎn))售價(jià)高達(dá)1300美元,遠(yuǎn)超我的預(yù)算,因此我決定采用廉價(jià)的180度
    發(fā)表于 03-03 11:25

    《具身智能機(jī)器人系統(tǒng)》第10-13章閱讀心得之具身智能機(jī)器人計(jì)算挑戰(zhàn)

    閱讀《具身智能機(jī)器人系統(tǒng)》第10-13章,我對(duì)具身智能機(jī)器人的工程實(shí)踐有了全新認(rèn)識(shí)。第10章從實(shí)時(shí)性角度剖析了機(jī)器人計(jì)算加速問題。機(jī)器人定位
    發(fā)表于 01-04 01:15

    開源項(xiàng)目!能夠精確地行走、跳舞和執(zhí)行復(fù)雜動(dòng)作的機(jī)器人—Tillu

    認(rèn)識(shí)Tillu——機(jī)器人 Tillu是一款融合先進(jìn)機(jī)器人技術(shù)與創(chuàng)造力的獨(dú)特機(jī)器人,旨在激發(fā)學(xué)習(xí)與創(chuàng)新!它由運(yùn)行Debian操作系統(tǒng)的UNIHIKER驅(qū)動(dòng),利用強(qiáng)大的控制系統(tǒng)實(shí)現(xiàn)逼真的動(dòng)
    發(fā)表于 01-02 17:24

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】+數(shù)據(jù)在具身人工智能中的價(jià)值

    數(shù)據(jù)。例如,自主導(dǎo)航機(jī)器人需要處理大量環(huán)境數(shù)據(jù),以增強(qiáng)其路徑規(guī)劃和避障能力。此外,數(shù)據(jù)的精度直接影響
    發(fā)表于 12-24 00:33

    《具身智能機(jī)器人系統(tǒng)》第1-6章閱讀心得之具身智能機(jī)器人系統(tǒng)背景知識(shí)與基礎(chǔ)模塊

    要給AI這個(gè)聰明的“頭腦”裝上一副“身體”。這個(gè)“身體”可以是一部手機(jī),可以是一臺(tái)自動(dòng)駕駛汽車。而人形機(jī)器人則是各類核心尖端技術(shù)于一體的載體,是具身智能的代表產(chǎn)品。與傳統(tǒng)的軟件智能體
    發(fā)表于 12-19 22:26

    開源項(xiàng)目!用ESP32做一個(gè)可愛的無用機(jī)器人

    簡(jiǎn)介 作者在完成碩士論文答辯后,利用空閑時(shí)間制作了一個(gè)他一直想做的機(jī)器人——可愛無用機(jī)器人。 無用機(jī)器人原理是一個(gè)連接到開關(guān)的電機(jī),通過邏輯門控制。當(dāng)開關(guān)被推到“開”時(shí),
    發(fā)表于 09-03 09:34

    開源項(xiàng)目!用ESP32做一個(gè)可愛的無用機(jī)器人

    簡(jiǎn)介 作者在完成碩士論文答辯后,利用空閑時(shí)間制作了一個(gè)他一直想做的機(jī)器人——可愛無用機(jī)器人。 無用機(jī)器人原理是一個(gè)連接到開關(guān)的電機(jī),通過邏輯門控制。當(dāng)開關(guān)被推到“開”時(shí),
    發(fā)表于 08-30 14:50

    谷歌借助Gemini AI系統(tǒng)深化對(duì)機(jī)器人的訓(xùn)練

    7月12日,國(guó)際科技界傳來新動(dòng)態(tài),谷歌正借助其先進(jìn)的Gemini AI系統(tǒng),深化對(duì)旗下機(jī)器人的訓(xùn)練,旨在顯著提升它們的導(dǎo)航能力和任務(wù)執(zhí)行能力。DeepMind機(jī)器人團(tuán)隊(duì)最新發(fā)布的研究論
    的頭像 發(fā)表于 07-12 16:29 ?912次閱讀

    Al大模型機(jī)器人

    理解能力強(qiáng)大: AI大模型機(jī)器人可以理解和生成自然語(yǔ)言,能夠進(jìn)行復(fù)雜的對(duì)話和語(yǔ)言任務(wù)。它們能夠識(shí)別語(yǔ)言中的語(yǔ)義、語(yǔ)境和情感,并據(jù)此作出適當(dāng)?shù)幕貞?yīng)。廣泛的知識(shí)儲(chǔ)備: 這些模型基于大規(guī)模的數(shù)據(jù)
    發(fā)表于 07-05 08:52