一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

智能機器也可以充當狗的角色?這個想法非常有挑戰(zhàn)性

8g3K_AI_Thinker ? 來源:未知 ? 作者:胡薇 ? 2018-04-18 14:28 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

通常,我們的人工智能系統(tǒng)都是以人的視角去構造的,這些系統(tǒng)已經(jīng)用于自動駕駛、人臉識別、操作重型機器,甚至檢測疾病。那么,我們可以從動物的角度構建一個智能系統(tǒng)嗎?比如讓 AI模擬狗的行為。

華盛頓大學與 Allen 人工智能研究所的研究人員最新的論文公開了他們開發(fā)的一種深度學習系統(tǒng),該系統(tǒng)可以訓練并模擬狗的行為特征。研究人員表示訓練智能機器的目標是使其能夠充當一個智能視覺體的角色。不過,讓智能機器充當狗的角色這個想法是非常具有挑戰(zhàn)性的任務。

簡介

我們研究了如何直接構建一個視覺智能體(visually intelligent agent)。通常,計算機視覺技術專注于解決與視覺智能相關的各種子任務。但我們的研究不同于這種標準的計算機視覺方法。相反,我們嘗試直接構建一個視覺智能體,我們的模型將視覺信息作為輸入,并直接預測智能體在未來的行為。

此外,我們引入了 DECADE 數(shù)據(jù)集,這是一個以狗的視角所搜集的狗的行為數(shù)據(jù)集。利用這些數(shù)據(jù),我們可以模擬狗的行為和動作規(guī)劃方式。在多種度量方法下,對于給定的視覺輸入,我們成功地構建了一個視覺智能體,它能夠準確預測并模擬狗的行為。不僅如此,與圖像分類任務學到的特征表征相比,我們的智能體學習到的特征能夠編碼不同的信息,也可以推廣到其他領域。尤其需要指出的是,通過將這種狗的建模任務作為表示學習,我們在可行走區(qū)域預測和場景分類任務中取得非常卓越的結果。

方法與模型

為了訓練,研究人員使用了一個叫做 Kelp 的阿拉斯加雪橇犬,并在其腿部配備了 GoPro 相機,尾部和后備箱上配備六個慣性測量傳感器,一個麥克風以及一個把這些數(shù)據(jù)綁在一起的 Arduino 開發(fā)板。研究人員在超過 50 個不同的地點,在長達數(shù)小時的時間內,記錄了 Kelp 的活動數(shù)據(jù),如步行、追蹤、抓取,與其他狗互動以及跟蹤物體等。利用英偉達提供的 GeForce GTX 1080 GPUTITAN X GPU 以及 cuDNN 加速的深度學習框架,研究人員用所獲得的視覺和感官信息來訓練神經(jīng)網(wǎng)絡。

在這里,研究人員解決了三個問題:

像狗一樣行動:根據(jù)一系列先前看到的圖像,神經(jīng)網(wǎng)絡的目標是預測狗未來的運動軌跡;

像狗一樣規(guī)劃:目標是找到一系列動作,讓狗在給定的一對圖像的位置之間移動。

從狗身上學習:我們將學習的表現(xiàn)用于第三項任務(如可行走的表面評估(Walkable surface estimation),預測狗的可行走區(qū)域)。

這些任務需要一些相當復雜的數(shù)據(jù):例如,就像真的狗一樣,我們的 AI 系統(tǒng)必須知道,當它需要從一個地點移動到另一地點的時候,可行走區(qū)域的位置有哪些。它不能在樹上或汽車上行走,也不能在沙發(fā)上行走(這也取決于房子)。因此,我們的模型也要學會這一點,它可以作為一個獨立的計算機視覺模型,在一張給定圖像中找出一個寵物(或一個有足機器人)所能夠到達的位置。下面我們將逐一介紹這三個任務所用到的模型結構。

這是用于模擬狗的行為的模型結構。這個模型是一個編碼-解碼器結構的神經(jīng)網(wǎng)絡,編碼器接收成對的圖片流作為輸入,而解碼器輸出每個節(jié)點未來的行動決策。在編碼器和解碼器之間有一個全連接層(FC),它能夠更好地捕捉區(qū)域內的行為變化。在解碼器中,每個時步輸出的行動概率將被用于下一個時步(timestep)。我們在兩個 ResNet 中共享模型的權重參數(shù)。

這是用于規(guī)劃狗的行為的模型結構。這個模型是卷積神經(jīng)網(wǎng)絡 CNN 和長短期記憶模型 LSTM 的結合體。模型的輸入是兩張圖片 I1 和 IN,這是在視頻系列的第 N-1 時間步截取來的數(shù)據(jù)。長短期記憶模型 LSTM 接收 CNN 的特征作為輸入,并輸出狗從 I1 移動到 IN 過程的行動序列。

這是用于可行走區(qū)域預測的模型結構。我們用 ResNet 模型的后四層,對其進行卷積、反卷積來推斷可行走區(qū)域。

評估指標

在實驗評估階段,我們使用多種不同的評價指標來綜合地評判我們的方法,包括分類精度、混淆度(perplexity)等。

定量分析結果:我們展示了模型識別視頻中 5 幀數(shù)據(jù)的結果,視頻中一個男人開始向一只狗投擲一個球。在視頻中,當球飛向那只狗時,狗會向右方移動以躲避球飛過來的方向。僅僅使用這 5 幀數(shù)據(jù),模型就能夠在球飛來時準確地預測出狗的移動方向。

實驗結果

“像狗一樣行動”的結果: 我們觀察了 5 幀的視頻序列并預測了接下來的 5 個動作。

“像狗一樣規(guī)劃”的結果:在開始和結束幀之間進行規(guī)劃, 我們考慮了相隔 5 步的起始圖像。

持續(xù)評估和全節(jié)點評估。在第一欄中數(shù)值越低越好,在第二欄中數(shù)值越高越好。

“步行式表面評估”結果。我們將在 ImageNet 上訓練的網(wǎng)絡結果與為我們做任務訓練的網(wǎng)絡進行了比較。 評估指標是 IOU。

實驗結果表明,我們的模型能夠在不同的情況下學習并模擬狗的行為,并像狗一樣的規(guī)劃并采取行動。

在研究報告中,研究人員指出,“狗的行動空間比人類要簡單得多,這使得我們的任務更加易于處理。然而,它們能夠清楚地表現(xiàn)出智能視覺的能力,如識別食物、障礙物、其他人類和動物,并對這些輸入做出相應地反應,但我們對于這些行為的目標和動機常常知之甚少?!?/p>

未來展望

研究人員提到,他們的評估實驗顯示出有趣而富有希望的結果。他們的模型可以在各種情況下預測狗的行為,并能像狗一樣采取行動,還能像狗一樣計劃如何從一種狀態(tài)轉移到另一種狀態(tài)。

在未來的應用中,研究團隊表示這只是一個初步的實驗。他們打算從多只狗身上收集更多數(shù)據(jù)(建立多樣的數(shù)據(jù)庫),并考慮引入更多的感官信息,如找到一些捕捉聲音、觸覺和嗅覺的方法。他們希望這項工作能夠為人類更好理解視覺智能和生物智能奠定基礎。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關注

    關注

    88

    文章

    35136

    瀏覽量

    279786
  • 人工智能
    +關注

    關注

    1806

    文章

    49014

    瀏覽量

    249448
  • 測量傳感器
    +關注

    關注

    0

    文章

    55

    瀏覽量

    13555

原文標題:AI變身記:不光能有人的智能,還要像狗一樣“思考”

文章出處:【微信號:AI_Thinker,微信公眾號:人工智能頭條】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    是否可以智能插頭直接連接到將充當控制器的imx8mm?

    運行具有物質層的 yocto mickledore 圖像。 是否可以智能插頭直接連接到將充當控制器的 imx8mm?
    發(fā)表于 04-08 08:08

    傅利葉借助NVIDIA Isaac Gym開發(fā)人形機器人GR-2

    訓練人形機器人在需要高度交互與適應的領域作業(yè),比如科學研究、醫(yī)療保健和制造業(yè)等,非常挑戰(zhàn)性且資源消耗很大。
    的頭像 發(fā)表于 02-20 09:27 ?731次閱讀

    【「具身智能機器人系統(tǒng)」閱讀體驗】2.具身智能機器人的基礎模塊

    非常重要的地位。 先說這個自主機器人的計算系統(tǒng)。計算系統(tǒng)是自主機器人的關鍵部件。自主機器人通過智能
    發(fā)表于 01-04 19:22

    《具身智能機器人系統(tǒng)》第10-13章閱讀心得之具身智能機器人計算挑戰(zhàn)

    。書中提出的自適應冗余方法非常巧妙:它不是簡單地增加硬件備份,而是根據(jù)任務重要動態(tài)調整冗余級別。這種智能化的冗余策略在提升系統(tǒng)魯棒的同時,
    發(fā)表于 01-04 01:15

    【「具身智能機器人系統(tǒng)」閱讀體驗】+兩本互為支持的書

    最近在閱讀《具身智能機器人系統(tǒng)》這本書的同時,還讀了 《計算機視覺之PyTorch數(shù)字圖像處理》一書,這兩本書完全可以視為是互為依托的姊妹篇?!队嬎銠C視覺之PyTorch數(shù)字圖像處理》是介紹
    發(fā)表于 01-01 15:50

    單軸測徑儀可以智能

    先進的傳感器技術和算法,單軸測徑儀能夠實現(xiàn)更高精度的測量。同時,智能化技術還可以對測量數(shù)據(jù)進行實時分析和處理,進一步提高測量結果的準確。 2.自動校準與校正:智能化單軸測徑儀具有自動
    發(fā)表于 12-31 13:55

    【「具身智能機器人系統(tǒng)」閱讀體驗】2.具身智能機器人大模型

    ,能夠利用\"思維鏈\"的技術將復雜任務分解為多個子任務,以漸進的方式解決問題。這不僅提高了任務的成功率,顯著增強了系統(tǒng)的魯棒,使得機器可以更高效地應對復雜環(huán)境和多樣化需求
    發(fā)表于 12-29 23:04

    【「具身智能機器人系統(tǒng)」閱讀體驗】1.初步理解具身智能

    與未來,涵蓋如基于行為的人工智能、生物啟發(fā)的進化人工智能及認知機器人技術的發(fā)展。這一歷史背景為隨后的大模型驅動的具身智能討論奠定了基礎,隨著人工智能
    發(fā)表于 12-28 21:12

    【「具身智能機器人系統(tǒng)」閱讀體驗】1.全書概覽與第一章學習

    非常感謝電子發(fā)燒友提供的這次書籍測評活動!最近,我一直在學習大模型和人工智能的相關知識,深刻體會到機器人技術是一個極具潛力的未來方向,甚至可以說是推動時代變革的重要力量。能參與這次活動
    發(fā)表于 12-27 14:50

    《具身智能機器人系統(tǒng)》第7-9章閱讀心得之具身智能機器人與大模型

    ,避免災難遺忘。 通過這個表格,我們可以清晰地看到預訓練+微調+ICL方法與元學習+GPICL方法在各個方面的利弊權衡。作者明確指出,從環(huán)境中學習,是具身智能系統(tǒng)的關鍵特征。因此元學
    發(fā)表于 12-24 15:03

    【「具身智能機器人系統(tǒng)」閱讀體驗】+數(shù)據(jù)在具身人工智能中的價值

    熟練程度,但由于其多模態(tài)性質,訓練 EAI 模型需要更多的機器人數(shù)據(jù)。這些機器人數(shù)據(jù)包括各種傳感輸入和交互類型,不僅極具挑戰(zhàn)性,而且收集成本高昂。 訓練 EAI 的第一個挑戰(zhàn)是訪問廣泛
    發(fā)表于 12-24 00:33

    【「具身智能機器人系統(tǒng)」閱讀體驗】+初品的體驗

    的快速發(fā)展,相關人才的需求在不斷增加,通過閱讀該書可以幫助大家系統(tǒng)性地了解和分析當前具身智能機器人系統(tǒng)的發(fā)展現(xiàn)狀和前沿研究,為未來的研究和開發(fā)工作提供指導。此外,本書還
    發(fā)表于 12-20 19:17

    《具身智能機器人系統(tǒng)》第1-6章閱讀心得之具身智能機器人系統(tǒng)背景知識與基礎模塊

    要給AI這個聰明的“頭腦”裝上一副“身體”。這個“身體”可以是一部手機,可以是一臺自動駕駛汽車。而人形機器人則是集各類核心尖端技術于一體的載
    發(fā)表于 12-19 22:26

    康謀分享 | 在基于場景的AD/ADAS驗證過程中,識別挑戰(zhàn)性場景!

    基于場景的驗證是AD/ADAS系統(tǒng)開發(fā)過程中的重要步驟,然而面對海量駕駛記錄數(shù)據(jù)時,如何實現(xiàn)自動且高效地識別、分類和提取駕駛記錄中的挑戰(zhàn)性場景?本文康謀為您介紹IVEX軟件識別挑戰(zhàn)性場景并進行數(shù)據(jù)分析的強大功能。
    的頭像 發(fā)表于 08-28 10:16 ?1426次閱讀
    康謀分享 | 在基于場景的AD/ADAS驗證過程中,識別<b class='flag-5'>挑戰(zhàn)性</b>場景!

    FPGA在人工智能中的應用有哪些?

    FPGA(現(xiàn)場可編程門陣列)在人工智能領域的應用非常廣泛,主要體現(xiàn)在以下幾個方面: 一、深度學習加速 訓練和推理過程加速:FPGA可以用來加速深度學習的訓練和推理過程。由于其高并行
    發(fā)表于 07-29 17:05