一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

未來機器人:讀腦繪圖像 看臉認嫌犯 握手辨性格

OaXG_jingzhengl ? 來源:未知 ? 作者:鄧佳佳 ? 2018-03-26 17:07 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

都說最難讀懂的是人心,這種復雜高等動物互相理解都有難度。然而,科技卻可能輕而易舉地做到了。在我們還沒搞清楚自己腦子想什么,情緒是快樂還是憤怒時,人工智能就準確冷靜不帶感情色彩地指了出來,通過簡單的“讀腦”“握手”“看臉”,就能輕松看透你,簡直是比你自己都更了解你。

讀腦繪圖像

拷貝別人記憶不是夢

多倫多斯卡伯勒大學的神經(jīng)科學家團隊開發(fā)出了一種“讀心術(shù)”方法,通過掃描你的大腦,來展現(xiàn)你腦海中想象的圖像,按照實驗,這種讀心術(shù)方法幾乎萬無一失。完成這項“讀心”任務的是科學家制造出的一種“讀心機器人”,簡單來說就是一種人工智能程序,這種程序通過識別大腦中的電子信號,來復制描繪大腦中的圖形形狀。該團隊一邊讓受試者觀看電腦屏幕上的人臉圖片,一邊用腦電圖系統(tǒng)記錄他們的腦電波,通過機器人學習算法運行腦電波數(shù)據(jù),以數(shù)字方式重現(xiàn)受試者剛剛看到的人臉圖像。

這項技術(shù)依賴于電腦程序“神經(jīng)網(wǎng)絡(luò)系統(tǒng)”,也就是由人工智能來模擬大腦工作時的腦電波數(shù)據(jù),然后將其數(shù)字化并呈現(xiàn)出來。理論來說,這種程序不僅可以學習捕捉大腦中看到人臉圖像時所形成的數(shù)據(jù)信號,對于一些演講內(nèi)容、文字數(shù)據(jù)、動態(tài)圖像等都可以進行識別。所以,雖然目前實驗僅完成了對人腦看到的人臉圖像的識別和描繪,未來對于人腦中形成的關(guān)于文字、數(shù)據(jù)、動態(tài)圖像都可以實現(xiàn)復制和重現(xiàn)。

研究人員在培訓這種“讀心機器人”時,首先讓其通過大量的人像數(shù)據(jù)庫掌握人臉的基本形狀和標志特征。當機器人可以識別面部特征之后,再將這些特征與相對應的腦電圖信號相關(guān)聯(lián)。這樣,在受測人員觀察人臉圖像時,機器人就可以根據(jù)他們當時的腦電圖反饋準確描繪出人腦中所反射出的圖像。

實驗參與人、神經(jīng)科學家阿德里安·內(nèi)斯特對于結(jié)果非常興奮,“機器人最終描繪出的可不是簡單的四邊形或是三角形輪廓,而是由細微筆觸構(gòu)成的人臉模擬圖。這樣不僅可以重建人們看到的東西,而且還可以用來表達他們想象出來的,或者記憶中的內(nèi)容?!眱?nèi)斯特說,“這就出現(xiàn)了另外一種價值,執(zhí)法部門可以通過這個方法,從目擊者那里收集到潛在嫌疑人的信息。”

或許有一天,人們的記憶將呈現(xiàn)另一種可能性,就像英劇《黑鏡》中所展現(xiàn)的那樣,人們可以任意地拷貝或者回放一個人大腦中的記憶。同時,這種技術(shù)的實現(xiàn)也可能在醫(yī)學上提供參考價值,為失語者提供一種表達自己思想的手段。

看臉識情緒

真正的測謊儀要來了

通過看臉色、眉眼高低就可以識別一個人的情緒,一直是區(qū)分機器人是否真“智能”的一個標準,世界各大領(lǐng)域的技術(shù)大咖也都在努力讓人工智能學會“察言觀色”。谷歌的研究者們開發(fā)了一款網(wǎng)頁應用,向人們展示由人工智能創(chuàng)作的小動物繪畫,然后通過攝像頭記錄人們看到繪畫時的反應,準確識別觀眾的喜好之后,網(wǎng)頁就可以更好地“投其所好”繪畫,這也應該是“察言觀色”的最初級體現(xiàn)。

跟谷歌團隊不同的是,麻省理工學院的研究者們正在針對“負面”情緒在探索,因為恐懼、惡心時的表情可能會更夸張,人工智能也就更容易上手。

另外,類似美國知名初創(chuàng)公司Affectiva的諸多企業(yè)都在探索有情感的人工智能,以及讓機器更好地理解人類面部表情和社會行為的技術(shù)。比如說如何讓無人駕駛汽車識別司機情緒,在司機分心時接管駕車任務等。

人工智能理解人類情緒的方法其實和人類一樣,無非就是通過面部表情變化判斷情緒波動。即使人會故意控制面部表情和聲音不產(chǎn)生變化或者展現(xiàn)出與內(nèi)心世界不一樣的表情和聲音,也總會露出一些破綻,只不過可能會很微小或一閃而過,讓人不易察覺。但對于人工智能來說,發(fā)現(xiàn)細微的現(xiàn)象或捕捉稍縱即逝的變化正是他們的長項,他們可以借助高速攝像機和高性能處理器來完成這項工作,從這個方面來說,人工智能對人類情緒的理解可能會比人還優(yōu)秀。

人工智能情緒識別的能力用處極大,在醫(yī)療業(yè)、服務業(yè)甚至審訊領(lǐng)域都會發(fā)揮不小的作用,就像美劇《Lie to me》能透過辨別微表情指認犯罪者一樣,也許會在不久后實現(xiàn)。

握手辨性格

自閉兒童將有新伙伴

機器人的可怕之處不僅在于可以洞察你的大腦,還能夠從一次簡單的握手中,瞬間挖掘到你的性格。據(jù)英國《每日郵報》報道,研究人員正在研發(fā)類人的情感機器人,它們對于觸覺相當敏感,所以僅從簡單的肢體接觸就可以判斷對方的性別、情緒和性格,從而回應以相對的感情安慰。這樣的機器人就不僅僅看起來像人,還擁有和人類相似的社交能力,通過感情慰藉來融入到人類環(huán)境中。

“給機器人賦予情感是唯一可以拉近它們和人類之間情感距離的方法。”巴黎薩克雷大學的教授阿德里亞娜表示,“我們此后的研究方向就是讓機器人能夠擁有一個‘玻璃心’,敏感到可以感知人類情緒,并學會禮貌、同情或者幽默地回應人類的情緒?!毖芯咳藛T在初期的實驗中已經(jīng)完成了機器人通過握手的簡單肢體接觸就能判斷對方性別的能力,且正確率達到75%。

阿德里亞娜解釋:“我們首先設(shè)定了男女不同性別在握手這個動作中的不同表現(xiàn)模式,比如男女在握手時的力度、幅度上和時間都不一樣,外向的人和內(nèi)向的人表現(xiàn)出的握手姿勢和頻率也不一樣,通過給機器人‘灌輸’這些握手模式,讓它們能夠在實際操作中識別對方身份?!?/p>

為了能夠更全面準確地進行模式設(shè)定,研究人員對大量男女握手姿勢進行了觀察研究,除了握手力度、擺動幅度、時間長度、放松程度的區(qū)別外,研究人員還發(fā)現(xiàn),男士主動握女士手時普遍習慣手臂更向下伸,推測是因為一般女士都更矮小,造成男士握手的習慣動作。如果這種敏感的感知能力可以推行,那么未來機器人可能扮演的角色將有很多,比如成為自閉癥孩子最好的朋友,或者孤寡老人的貼心“老伴兒”。

此前的一份調(diào)查顯示,5歲至18歲之間的青少年中,有20%表示更愿意與機器人交朋友。而對于有自閉癥的孩子來說,機器人的敏感和貼心也更會成為打動這些孩子并換以真心的特質(zhì)。

相關(guān)知識

人工智能怎么學習

以上所有的人工智能“讀心術(shù)”歸根結(jié)底都還是基于其“深度學習能力”才能達成的。人工智能之所以具備學習能力,是因為它也有類似人類的大腦——人工神經(jīng)網(wǎng)絡(luò)(ANN),它的本質(zhì)就在于試圖模仿大腦神經(jīng)元之間的傳遞處理信息的模式。

人工神經(jīng)網(wǎng)絡(luò)的創(chuàng)造理念受到生物學的啟發(fā),是生物神經(jīng)網(wǎng)絡(luò)的一種模擬和近似,它從結(jié)構(gòu)、實現(xiàn)機理和功能上模擬生物神經(jīng)網(wǎng)絡(luò)。一般認為,人工神經(jīng)元網(wǎng)絡(luò)是由大量神經(jīng)元通過極其豐富和完善的連接而構(gòu)成的自適應非線性動態(tài)系統(tǒng)。因為生物的學習系統(tǒng)是由相互連接的神經(jīng)元組成的異常復雜的網(wǎng)絡(luò),其中每一個神經(jīng)元單元有一定數(shù)量的實值輸入,并產(chǎn)生單一的實數(shù)值輸出。這種輸入和輸出模式基于數(shù)學統(tǒng)計學類型的學習方法得以優(yōu)化,所以人工神經(jīng)網(wǎng)絡(luò)也是數(shù)學統(tǒng)計學方法的一種實際應用。

這種神經(jīng)網(wǎng)絡(luò)依靠系統(tǒng)的復雜程度,通過調(diào)整內(nèi)部大量節(jié)點之間相互連接的關(guān)系,達到處理信息的目的,自身也就具備了學習和自適應的能力。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 機器人
    +關(guān)注

    關(guān)注

    213

    文章

    29748

    瀏覽量

    212879
  • 人工智能
    +關(guān)注

    關(guān)注

    1806

    文章

    49028

    瀏覽量

    249499
  • 深度學習
    +關(guān)注

    關(guān)注

    73

    文章

    5561

    瀏覽量

    122794

原文標題:未來機器人能有多懂你:讀腦繪圖像 看臉認嫌犯 握手辨性格

文章出處:【微信號:jingzhenglizixun,微信公眾號:機器人博覽】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    工業(yè)通信界的“月老”:CC\\-Link IE和DeviceNet如何牽起機器人的“紅線”

    協(xié)議,兼容性強,堪稱設(shè)備間的“老好人”。這兩種協(xié)議看似“八字不合”,但通過協(xié)議轉(zhuǎn)換網(wǎng)關(guān)這個“神奇月老”,能讓它們握手言和。有了它,工業(yè)機器人就能無障礙接收PLC指令,還能實時反饋狀態(tài),實現(xiàn)精準協(xié)作
    發(fā)表于 06-12 14:35

    盤點#機器人開發(fā)平臺

    Athena機器人****開發(fā)平臺思嵐推出Athena機器人開發(fā)平臺,有望主導機器人開發(fā)平臺未來市場-電子發(fā)燒友網(wǎng)AUTO CUBEROS機器人
    發(fā)表于 05-13 15:02

    【「# ROS 2智能機器人開發(fā)實踐」閱讀體驗】視覺實現(xiàn)的基礎(chǔ)算法的應用

    的cv_bridge庫,可以輕松實現(xiàn)ROS圖像消息與OpenCV格式的轉(zhuǎn)換,這在實際開發(fā)中極為便利。 視覺巡線與二維碼識別的應用 視覺巡線是機器人自主導航的經(jīng)典案例,書中從仿真到真實機器人
    發(fā)表于 05-03 19:41

    【「# ROS 2智能機器人開發(fā)實踐」閱讀體驗】機器人入門的引路書

    ROS的全稱:Robot Operating System 機器人操作系統(tǒng) ROS的 目的 :ROS支持通用庫,是通信總線,協(xié)調(diào)多個傳感器 為了解決機器人里各廠商模塊不通用的問題,讓機器人快速開發(fā)
    發(fā)表于 04-30 01:05

    【「# ROS 2智能機器人開發(fā)實踐」閱讀體驗】+內(nèi)容初識

    出有用的信息,如障礙物的位置和形狀。對于攝像頭數(shù)據(jù),可以使用 OpenCV 等圖像處理庫進行圖像識別、目標跟蹤等操作,為機器人的導航和決策提供支持。 運動控制:運動控制是機器人開發(fā)的核
    發(fā)表于 04-27 11:24

    什么是機器人?追蹤機器人技術(shù)的發(fā)展和未來

    什么是機器人? 我們都知道“機器人”這個詞,并在日常對話中隨意使用它。但我們知道它真正的含義嗎?讓我們花點時間來深入研究機器人的定義。它是像看起來那么簡單,還是挑戰(zhàn)了我們的理解? 在其核心,
    的頭像 發(fā)表于 04-24 19:21 ?1121次閱讀

    名單公布!【書籍評測活動NO.58】ROS 2智能機器人開發(fā)實踐

    資格! 從 PC 到智能手機,下一個更大的計算平臺是什么? 最佳答案可能是 機器人 ! 如果設(shè)想成真,則需要有人為機器人“造”,即打造適配的計算平臺及操作系統(tǒng)。 就像以計算機為平臺的計算機時代,和以
    發(fā)表于 03-03 14:18

    【「具身智能機器人系統(tǒng)」閱讀體驗】2.具身智能機器人的基礎(chǔ)模塊

    具身智能機器人的基礎(chǔ)模塊,這個是本書的第二部分內(nèi)容,主要分為四個部分:機器人計算系統(tǒng),自主機器人的感知系統(tǒng),自主機器人的定位系統(tǒng),自主機器人
    發(fā)表于 01-04 19:22

    《具身智能機器人系統(tǒng)》第10-13章閱讀心得之具身智能機器人計算挑戰(zhàn)

    閱讀《具身智能機器人系統(tǒng)》第10-13章,我對具身智能機器人的工程實踐有了全新認識。第10章從實時性角度剖析了機器人計算加速問題。機器人定位中的SLAM算法需要處理兩個計算密集型任務:
    發(fā)表于 01-04 01:15

    【「具身智能機器人系統(tǒng)」閱讀體驗】+兩本互為支持的書

    之極。 《計算機視覺之PyTorch數(shù)字圖像處理》為《具身智能機器人系統(tǒng)》提供了感知和識別能力,而《具身智能機器人系統(tǒng)》則為《計算機視覺之PyTorch數(shù)字圖像處理》提供了執(zhí)行體。
    發(fā)表于 01-01 15:50

    【「具身智能機器人系統(tǒng)」閱讀體驗】2.具身智能機器人大模型

    指令和當前機器人靜態(tài)圖像,生成一段預測的未來狀態(tài)視頻。從這些預測視頻中,可以提取機器人的位姿信息,并解碼出控制所需的速度、加速度等關(guān)鍵參數(shù),再傳遞給
    發(fā)表于 12-29 23:04

    【「具身智能機器人系統(tǒng)」閱讀體驗】1.初步理解具身智能

    對人工智能、機器人技術(shù)和計算系統(tǒng)交叉領(lǐng)域感興趣的讀者來說不可或缺的書。這本書深入探討了具身智能這一結(jié)合物理機器人和智能算法的領(lǐng)域,該領(lǐng)域正在塑造自主系統(tǒng)及其應用的未來。 開篇部分探討了具身智能
    發(fā)表于 12-28 21:12

    【「具身智能機器人系統(tǒng)」閱讀體驗】+初品的體驗

    的快速發(fā)展,相關(guān)人才的需求也在不斷增加,通過閱讀該書可以幫助大家系統(tǒng)性地了解和分析當前具身智能機器人系統(tǒng)的發(fā)展現(xiàn)狀和前沿研究,為未來的研究和開發(fā)工作提供指導。此外,本書還可以為研究人員和工程師提供具體
    發(fā)表于 12-20 19:17

    鴻蒙機器人與鴻蒙開發(fā)板聯(lián)動演示

    鴻蒙機器人與鴻蒙開發(fā)板聯(lián)動演示,機器人的角色為迎賓機器人,開發(fā)板負責人賓客出現(xiàn)監(jiān)聽
    發(fā)表于 12-02 14:55

    在用機器人未來機器人并行推進的權(quán)重關(guān)系

    在用機器人未來機器人并行推進的權(quán)重關(guān)系
    的頭像 發(fā)表于 08-01 08:14 ?738次閱讀
    在用<b class='flag-5'>機器人</b>與<b class='flag-5'>未來</b><b class='flag-5'>機器人</b>并行推進的權(quán)重關(guān)系