一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

FollowNet一個(gè)用于學(xué)習(xí)多模態(tài)導(dǎo)航策略的端到端的可微神經(jīng)架構(gòu)

ml8z_IV_Technol ? 來(lái)源:未知 ? 作者:李倩 ? 2018-05-24 16:51 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

人們經(jīng)常通過(guò)觀察周?chē)沫h(huán)境和遵循指令在未知的環(huán)境中進(jìn)行導(dǎo)航。而這些指導(dǎo)指令主要由地標(biāo)和方向指示性指令以及其他常用詞語(yǔ)組成。最近,Google將類(lèi)似于人類(lèi)的指令遵循應(yīng)用到機(jī)器人在二維工作空間中的導(dǎo)航任務(wù),為智能體提供指令,并對(duì)其進(jìn)行訓(xùn)練以遵循指令。為了進(jìn)行有效導(dǎo)航,Google提出了FollowNet,它是一個(gè)用于學(xué)習(xí)多模態(tài)導(dǎo)航策略的端到端的可微神經(jīng)架構(gòu)??商岣咧悄荏w在環(huán)境中的導(dǎo)航能力。

理解和遵循由人類(lèi)提供的指令可以使機(jī)器人在未知的情況下進(jìn)行有效的導(dǎo)航。我們提供了FollowNet,它是一個(gè)用于學(xué)習(xí)多模態(tài)導(dǎo)航策略的端到端可微的神經(jīng)架構(gòu)。FollowNet將自然語(yǔ)言指令以及視覺(jué)的深度輸入映射到運(yùn)動(dòng)原語(yǔ)(locomotion primitive)。FollowNet在執(zhí)行導(dǎo)航任務(wù)時(shí)使用注意力機(jī)制來(lái)處理指令,該機(jī)制以其視覺(jué)的深度輸入為條件,以集中于命令的相關(guān)部分。深度強(qiáng)化學(xué)習(xí)(deep reinforcement learning,DRL)的稀疏獎(jiǎng)勵(lì)要同時(shí)學(xué)習(xí)狀態(tài)表征、注意力函數(shù)和控制策略。我們?cè)谝粋€(gè)復(fù)雜的自然語(yǔ)言指令的數(shù)據(jù)集上評(píng)估我們的智能體,以通過(guò)一個(gè)豐富、真實(shí)的模擬家庭數(shù)據(jù)集來(lái)指導(dǎo)智能體。我們指出,F(xiàn)ollowNet智能體學(xué)習(xí)執(zhí)行以前不可見(jiàn)的用類(lèi)似詞匯描述的指令,并成功地沿著在訓(xùn)練期間未遇到的路徑進(jìn)行導(dǎo)航。在沒(méi)有注意力機(jī)制的情況下,智能體與基線模型相比顯示出30%的改進(jìn),在新指令下的成功率為52%。

圖1:用于從自然語(yǔ)言指令學(xué)習(xí)導(dǎo)航的房屋的三維渲染。

人們經(jīng)常通過(guò)觀察周?chē)沫h(huán)境和遵循指令在未知的環(huán)境中導(dǎo)航。這些指令主要由地標(biāo)和方向性指令以及其他常用詞語(yǔ)組成。例如,人們可以在一個(gè)他們以前沒(méi)有去過(guò)的家中找到廚房,通過(guò)遵循以下的指令:“在餐桌處右轉(zhuǎn),然后再左轉(zhuǎn)(Turn right at the dining table, then take the second left)”。這個(gè)過(guò)程需要視覺(jué)上的觀察,例如在視野范圍內(nèi)的餐桌或關(guān)于典型門(mén)廳的知識(shí),并執(zhí)行在這個(gè)方向上的動(dòng)作:向左轉(zhuǎn)。這里的復(fù)雜性有多個(gè)維度:有限的視野,像“second”這樣的修飾詞,像“take”和“turn”這樣的同義詞,理解“take left left”指的是門(mén),等等。

圖2:將視覺(jué)和語(yǔ)言輸入映射到導(dǎo)航動(dòng)作的神經(jīng)模型。左圖:一個(gè)示例任務(wù),其中機(jī)器人從藍(lán)色三角形指定的位置和方向開(kāi)始,并且必須到達(dá)由紅色圓圈指定的目標(biāo)位置。機(jī)器人會(huì)收到一條自然語(yǔ)言指令,以便沿著圖像下方列出的標(biāo)有紅色的路徑行進(jìn)。右圖:FollowNet架構(gòu)。

在本文中,我們將類(lèi)似于人類(lèi)的指令遵循應(yīng)用到機(jī)器人在二維工作空間中的導(dǎo)航(圖1)。我們給機(jī)器人提供了與上述機(jī)器人類(lèi)似的示例指令,并訓(xùn)練了一個(gè)深度強(qiáng)化學(xué)習(xí)(DRL)智能體以遵循指令。當(dāng)從不同的位置出發(fā)時(shí),該智能體會(huì)被測(cè)試它遵循新指令的程度。我們通過(guò)一個(gè)新的深度神經(jīng)網(wǎng)絡(luò)架構(gòu)FollowNet(圖2)完成了這項(xiàng)工作,該架構(gòu)是使用Deep Q-Network (DQN)來(lái)進(jìn)行訓(xùn)練的。觀察空間由自然語(yǔ)言指令和從機(jī)器人的有利位置(vantage point)得到的視覺(jué)深度觀察組成(圖4b)。策略的輸出是下一個(gè)要執(zhí)行的運(yùn)動(dòng)原語(yǔ)(motion primitive)。機(jī)器人沿著無(wú)障礙的網(wǎng)格(obstacle-free grid)移動(dòng),但是指令要求機(jī)器人移動(dòng)超過(guò)可變數(shù)量的節(jié)點(diǎn)以到達(dá)目的地。我們使用的指令(表I)包含隱式編碼的房間(implicitly encoded room)、地標(biāo)和運(yùn)動(dòng)原語(yǔ)。在上面的例子中,“廚房”是目標(biāo)位置的房間?!安妥馈笔且粋€(gè)地標(biāo)示例,在這個(gè)點(diǎn)上,智能體可能會(huì)改變方向。在沒(méi)有智能體的知識(shí)的情況下,房間和地標(biāo)都被映射到成群的網(wǎng)格點(diǎn)。我們使用的是稀疏獎(jiǎng)勵(lì),只有當(dāng)智能體到達(dá)一個(gè)路標(biāo)的時(shí)候才會(huì)給它一個(gè)獎(jiǎng)勵(lì)。

表1:在訓(xùn)練過(guò)程中所使用的指令樣本。

可以這樣說(shuō),F(xiàn)ollowNet架構(gòu)的新穎之處在于一種語(yǔ)言指令注意機(jī)制(language instruction attention mechanism),它是以智能體的感官觀察為基礎(chǔ)條件的。這使得智能體能夠做兩件事。首先,它追蹤指令命令,并在探索環(huán)境時(shí)關(guān)注不同的部分。其次,它將運(yùn)動(dòng)原語(yǔ)(motion primitives)、感官觀察和指令的各個(gè)部分與收到的獎(jiǎng)勵(lì)相關(guān)聯(lián),從而使智能體能夠泛化到新的指令中。

我們?cè)u(píng)估智能體在新指令和新運(yùn)動(dòng)計(jì)劃中的泛化程度。首先,我們?cè)u(píng)估一下,在智能體所熟悉的房屋中,它對(duì)先前不可見(jiàn)的兩步指示的遵循執(zhí)行程度。結(jié)果表明,該智能體能夠完全遵循52%的指令,局部性遵循61%的指令,比基線增加30%。其次,相同的指令對(duì)一組不同的起始位置來(lái)說(shuō)是有效的。例如,“離開(kāi)房間”這一指令對(duì)于房間內(nèi)的任何起始位置來(lái)說(shuō)都是有效的,但機(jī)器人為完成任務(wù)而需要執(zhí)行的運(yùn)動(dòng)計(jì)劃可能會(huì)非常不同。為了了解運(yùn)動(dòng)計(jì)劃泛化到新的起始位置的程度,我們?cè)u(píng)估智能體對(duì)一個(gè)它已經(jīng)在其經(jīng)過(guò)訓(xùn)練的指令(最多五步的方向)的遵循執(zhí)行情況,但是現(xiàn)在是從新的起始位置開(kāi)始的。智能體能夠局部性地完成70%的指令,完全性地完成54%的指令。從這個(gè)角度來(lái)看,多步驟的指令對(duì)于人們來(lái)說(shuō)也是具有一定的挑戰(zhàn)性的。

圖3:環(huán)境中的地標(biāo)和網(wǎng)格。

端到端的導(dǎo)航方法(End-to-end navigation methods)使用深度強(qiáng)化學(xué)習(xí)機(jī)器人的感官觀察和相對(duì)目標(biāo)位置。在這項(xiàng)研究中,我們提供的是自然語(yǔ)言指令而不是明確的目標(biāo),因此智能體必須學(xué)會(huì)對(duì)指令加以解釋從而完成目標(biāo)。將強(qiáng)化學(xué)習(xí)應(yīng)用于機(jī)器人的一個(gè)挑戰(zhàn)是狀態(tài)空間表征。大的狀態(tài)空間減慢了學(xué)習(xí)速度,因此經(jīng)常使用不同的近似技術(shù)。這些例子包括概率路線圖(PRM)和簡(jiǎn)單的空間離散化。在這里,我們對(duì)二維工作空間進(jìn)行離散化,并允許智能體通過(guò)網(wǎng)格從節(jié)點(diǎn)移動(dòng)到節(jié)點(diǎn)。本質(zhì)上,我們假設(shè)機(jī)器人可以通過(guò)執(zhí)行與動(dòng)作相對(duì)應(yīng)的運(yùn)動(dòng)原語(yǔ)來(lái)避開(kāi)障礙物并在兩個(gè)網(wǎng)格點(diǎn)之間安全地進(jìn)行移動(dòng)。

深度學(xué)習(xí)在學(xué)習(xí)自然語(yǔ)言和視覺(jué),甚至在結(jié)合視覺(jué)和語(yǔ)言學(xué)習(xí)方面取得了巨大成功。要想應(yīng)用于機(jī)器人運(yùn)動(dòng)規(guī)劃和導(dǎo)航,語(yǔ)言學(xué)習(xí)通常需要一定程度的解析,其中包括正式的表述、語(yǔ)義分析、概率圖模型、編碼和對(duì)齊或基礎(chǔ)任務(wù)語(yǔ)言。然而,通過(guò)自然語(yǔ)言學(xué)習(xí)目標(biāo)標(biāo)記,主要是通過(guò)學(xué)習(xí)將自然語(yǔ)言指令解析為一種層次結(jié)構(gòu),用于機(jī)器人動(dòng)作規(guī)劃和執(zhí)行以及主動(dòng)學(xué)習(xí)過(guò)程。這里,與P. Anderson等人于2017年發(fā)表一篇文論相類(lèi)似,我們的目標(biāo)是隱式學(xué)習(xí)地標(biāo)(目標(biāo))和運(yùn)動(dòng)原語(yǔ)的標(biāo)簽,以及它們對(duì)視覺(jué)觀察的解釋。與之不同的是,我們?cè)贔ollowNet上使用DQN來(lái)學(xué)習(xí)導(dǎo)航策略。其他研究使用課程(curriculum)來(lái)完成一個(gè)環(huán)境中的多項(xiàng)任務(wù)。

圖4:FollowNet智能體的語(yǔ)義分割圖觀察。顏色對(duì)應(yīng)于物體類(lèi)型(智能體不知道),并且在房屋和有利位置之間保持一致。沙發(fā)為綠色(a和c),餐桌為黃色(b和c)。

另一項(xiàng)結(jié)合3D導(dǎo)航、視覺(jué)和自然語(yǔ)言的研究工作是學(xué)習(xí)回答問(wèn)題。這些問(wèn)題源于一組指定的問(wèn)題,其中,某些關(guān)鍵詞被替換。在我們的研究工作中,提供給智能體的語(yǔ)言指令是由四名人員獨(dú)立創(chuàng)建的,并且在未經(jīng)任何處理的情況下就提交至智能體。有幾種方法從未過(guò)濾的語(yǔ)言和視覺(jué)輸入中學(xué)習(xí)。在這些方法中,視覺(jué)輸入是整個(gè)規(guī)劃環(huán)境的圖像。相反,F(xiàn)ollowNet僅接收部分環(huán)境觀測(cè)。

本文介紹了FollowNet體系結(jié)構(gòu),該體系結(jié)構(gòu)使用注意力機(jī)制來(lái)處理基于多模式感官觀察的自然語(yǔ)言指令,以作為DQN中的動(dòng)作值函數(shù)逼近器。經(jīng)過(guò)訓(xùn)練的模型只使用視覺(jué)和深度信息來(lái)學(xué)習(xí)自然語(yǔ)言指令。結(jié)果表明,我們可以同時(shí)學(xué)習(xí)方向性指令的泛化和標(biāo)志識(shí)別。智能體在大多數(shù)時(shí)間(在幼兒階段)成功地遵循了新的兩步指令(novel two-step directions),比基線水平提高了30%。在今后的研究工作中,我們的目標(biāo)是在一個(gè)更大的數(shù)據(jù)集上訓(xùn)練智能體,跨多個(gè)領(lǐng)域開(kāi)展更為深入的分析和經(jīng)驗(yàn)評(píng)估工作,并探索跨不同環(huán)境的泛化能力。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 機(jī)器人
    +關(guān)注

    關(guān)注

    213

    文章

    29718

    瀏覽量

    212766
  • 導(dǎo)航
    +關(guān)注

    關(guān)注

    7

    文章

    554

    瀏覽量

    43145
  • 自然語(yǔ)言
    +關(guān)注

    關(guān)注

    1

    文章

    292

    瀏覽量

    13654

原文標(biāo)題:Google提出FollowNet:使用深度強(qiáng)化學(xué)習(xí)訓(xùn)練機(jī)器人遵循指令進(jìn)行導(dǎo)航

文章出處:【微信號(hào):IV_Technology,微信公眾號(hào):智車(chē)科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    技術(shù)分享 |模態(tài)自動(dòng)駕駛混合渲染HRMAD:將NeRF和3DGS進(jìn)行感知驗(yàn)證和AD測(cè)試

    模態(tài)自動(dòng)駕駛混合渲染HRMAD,融合NeRF與3DGS技術(shù),實(shí)現(xiàn)超10萬(wàn)㎡場(chǎng)景重建,傳感器實(shí)時(shí)輸出,仿真更接近真實(shí)數(shù)據(jù)!然而,如何用高保真仿真場(chǎng)景快速驗(yàn)證自動(dòng)駕駛算法?HRMAD已集成至aiSim平臺(tái),
    的頭像 發(fā)表于 03-26 16:05 ?3395次閱讀
    技術(shù)分享 |<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>自動(dòng)駕駛混合渲染HRMAD:將NeRF和3DGS進(jìn)行感知驗(yàn)證和<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>AD測(cè)試

    為WiMAX構(gòu)建的網(wǎng)絡(luò)架構(gòu)

    本文首先分析了WiMAX技術(shù)的市場(chǎng)驅(qū)動(dòng)力和影響其成功部署的關(guān)鍵因素,隨后介紹了個(gè)基于WiMAX接入技術(shù)的網(wǎng)絡(luò)
    發(fā)表于 06-16 11:34 ?571次閱讀

    基于WiMAX接入技術(shù)的網(wǎng)絡(luò)架構(gòu)

    基于WiMAX接入技術(shù)的網(wǎng)絡(luò)架構(gòu) 本文首先分析了WiMAX技術(shù)的市場(chǎng)驅(qū)動(dòng)力和影響其成功部署的關(guān)鍵因素,隨后介紹了
    發(fā)表于 10-20 21:03 ?781次閱讀

    如何設(shè)計(jì)個(gè)有限狀態(tài)轉(zhuǎn)換器的中文語(yǔ)音識(shí)別系統(tǒng)

    應(yīng)用于該聲學(xué)模型訓(xùn)練中,搭建出不依賴于隱馬爾夫模型的中文語(yǔ)音識(shí)別系統(tǒng);同時(shí)設(shè)計(jì)了基于加權(quán)有限狀態(tài)轉(zhuǎn)換器( WFST)的語(yǔ)音解碼方法,
    發(fā)表于 12-28 16:01 ?5次下載
    如何設(shè)計(jì)<b class='flag-5'>一</b><b class='flag-5'>個(gè)</b>有限狀態(tài)轉(zhuǎn)換器的<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>中文語(yǔ)音識(shí)別系統(tǒng)

    如何基于深度神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)個(gè)的自動(dòng)駕駛模型?

    如何基于深度神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)個(gè)的自動(dòng)駕駛模型?如何設(shè)計(jì)
    的頭像 發(fā)表于 04-29 16:44 ?5291次閱讀
    如何基于深度<b class='flag-5'>神經(jīng)</b>網(wǎng)絡(luò)設(shè)計(jì)<b class='flag-5'>一</b><b class='flag-5'>個(gè)</b><b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>的自動(dòng)駕駛模型?

    深度學(xué)習(xí)卷積神經(jīng)網(wǎng)絡(luò)識(shí)別商家招牌

    為解決采用卷積神經(jīng)網(wǎng)絡(luò)對(duì)商家招牌進(jìn)行分類(lèi)時(shí)存在特征判別性較差的問(wèn)題,通過(guò)在注意力機(jī)制中引入神經(jīng)網(wǎng)絡(luò),提岀
    發(fā)表于 03-12 10:51 ?8次下載
    <b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>深度<b class='flag-5'>學(xué)習(xí)</b>卷積<b class='flag-5'>神經(jīng)</b>網(wǎng)絡(luò)識(shí)別商家招牌

    基于編碼-解碼卷積架構(gòu)的聯(lián)合策略網(wǎng)絡(luò)

    。給出種基于編碼-解碼卷積架構(gòu)的聯(lián)合策略網(wǎng)絡(luò),將其嵌人PGS、POE和SS+3種經(jīng)典搜索方法中,實(shí)現(xiàn)智能體聯(lián)合動(dòng)作的
    發(fā)表于 04-02 14:24 ?13次下載
    基于編碼-解碼卷積<b class='flag-5'>架構(gòu)</b>的聯(lián)合<b class='flag-5'>策略</b>網(wǎng)絡(luò)

    基于深度神經(jīng)網(wǎng)絡(luò)的圖像壓縮方法

    人工設(shè)計(jì)的算法分別進(jìn)行優(yōu)化近年來(lái),基于深度神經(jīng)網(wǎng)絡(luò)的圖像壓縮方法在圖像壓縮中取得了豐碩的成果,相比傳統(tǒng)方法,
    發(fā)表于 04-08 09:30 ?16次下載
    基于深度<b class='flag-5'>神經(jīng)</b>網(wǎng)絡(luò)的<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>圖像壓縮方法

    ADPD4000/ADPD4001:模態(tài)傳感器數(shù)據(jù)Sheet

    ADPD4000/ADPD4001:模態(tài)傳感器數(shù)據(jù)Sheet
    發(fā)表于 05-11 11:24 ?3次下載
    ADPD4000/ADPD4001:<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>傳感器<b class='flag-5'>端</b>數(shù)據(jù)Sheet

    深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)模型BiGRU-FCN

    神經(jīng)網(wǎng)絡(luò)和循環(huán)神經(jīng)網(wǎng)絡(luò)中的雙向門(mén)控循環(huán)單元,提岀了個(gè)新的對(duì)深度
    發(fā)表于 06-11 16:40 ?42次下載

    的無(wú)人機(jī)導(dǎo)航模擬演示

    借助現(xiàn)代人工智能算法,旋翼無(wú)人機(jī)可以成為智能代理,在未知環(huán)境中導(dǎo)航。給定目的地,無(wú)人機(jī)可以控制環(huán)境,重建環(huán)境地圖并動(dòng)態(tài)規(guī)劃到目的地的軌跡。這項(xiàng)工作的目的是構(gòu)建個(gè)
    的頭像 發(fā)表于 04-06 15:00 ?5041次閱讀

    InfiniBand網(wǎng)絡(luò)解決LLM訓(xùn)練瓶頸

    ChatGPT對(duì)技術(shù)的影響引發(fā)了對(duì)人工智能未來(lái)的預(yù)測(cè),尤其是模態(tài)技術(shù)的關(guān)注。OpenAI推出了具有突破性的模態(tài)模型GPT-4,使各個(gè)領(lǐng)域取得了顯著的發(fā)展。 這些AI進(jìn)步是通過(guò)大規(guī)模
    的頭像 發(fā)表于 10-23 11:26 ?1952次閱讀
    <b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>InfiniBand網(wǎng)絡(luò)解決LLM訓(xùn)練瓶頸

    爆火的如何加速智駕落地?

    編者語(yǔ):「智駕最前沿」信公眾號(hào)后臺(tái)回復(fù):C-0551,獲取本文參考報(bào)告:《智能汽車(chē)技術(shù)研究報(bào)告》pdf下載方式。 “
    的頭像 發(fā)表于 11-26 13:17 ?1148次閱讀
    爆火的<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>如何加速智駕落地?

    文帶你厘清自動(dòng)駕駛架構(gòu)差異

    [首發(fā)于智駕最前沿信公眾號(hào)]隨著自動(dòng)駕駛技術(shù)飛速發(fā)展,智能駕駛系統(tǒng)的設(shè)計(jì)思路也經(jīng)歷了從傳統(tǒng)模塊化架構(gòu)
    的頭像 發(fā)表于 05-08 09:07 ?288次閱讀
    <b class='flag-5'>一</b>文帶你厘清自動(dòng)駕駛<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b><b class='flag-5'>架構(gòu)</b>差異

    為何成為各車(chē)企智駕布局的首要選擇?

    [首發(fā)于智駕最前沿信公眾號(hào)]在智能駕駛領(lǐng)域,技術(shù)的提出標(biāo)志著自動(dòng)駕駛系統(tǒng)在架構(gòu)設(shè)計(jì)上的
    的頭像 發(fā)表于 06-07 11:52 ?170次閱讀
    為何<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>成為各車(chē)企智駕布局的首要選擇?