《連線(xiàn)》雜志專(zhuān)訪(fǎng)Geoffrey Hinton,關(guān)于AI自主武器、AI研究的挑戰(zhàn)、思考大腦的運(yùn)作方式如何啟發(fā)人工神經(jīng)網(wǎng)絡(luò)等。Hinton很確定,不會(huì)有AI寒冬,因?yàn)锳I已經(jīng)成為人們?nèi)粘I畹囊徊糠帧?/p>
20世紀(jì)70年代初,來(lái)自英國(guó)的研究生Geoffrey Hinton開(kāi)始構(gòu)建簡(jiǎn)單的數(shù)學(xué)模型,來(lái)描述人腦神經(jīng)元如何在視覺(jué)上理解世界。幾十年來(lái),人工神經(jīng)網(wǎng)絡(luò)一直被認(rèn)為是一項(xiàng)不切實(shí)際的技術(shù)。但在2012年,Hinton和他在多倫多大學(xué)的兩名研究生利用人工神經(jīng)網(wǎng)絡(luò)將計(jì)算機(jī)識(shí)別圖像中物體的準(zhǔn)確度大幅提升。這三位研究人員一起創(chuàng)立了一家創(chuàng)業(yè)公司,僅僅6個(gè)月就被谷歌收購(gòu)。從前鮮為人知的人工神經(jīng)網(wǎng)絡(luò)也開(kāi)始成為硅谷的熱門(mén)話(huà)題。
上周,在七國(guó)集團(tuán)(G7)首次的人工智能會(huì)議上,《連線(xiàn)》雜志采訪(fǎng)了Hinton。來(lái)自世界主要工業(yè)化經(jīng)濟(jì)體的代表們?cè)跁?huì)上討論了如何開(kāi)發(fā)人工智能的好處,同時(shí)盡量減少失業(yè)和算法歧視等不利因素。
以下是經(jīng)過(guò)編輯的采訪(fǎng)實(shí)錄:
《連線(xiàn)》:加拿大***Justin Trudeau在G7會(huì)議上表示,AI帶來(lái)的道德挑戰(zhàn)還需要做更多的努力。你怎么看?
Geoff Hinton:我一直擔(dān)心致命的自主武器有可能被濫用。我認(rèn)為應(yīng)該有一個(gè)類(lèi)似于《日內(nèi)瓦公約》的條約來(lái)禁止自主武器,就像禁止化學(xué)武器一樣。即使不是每個(gè)人都在上面簽名,它的存在也會(huì)起到某種道德約束的作用。人們會(huì)看誰(shuí)沒(méi)有簽名。
問(wèn):有4500多名你的谷歌同事聯(lián)名簽署了一封公開(kāi)信,抗議一項(xiàng)谷歌與五角大樓的合同,涉及將機(jī)器學(xué)習(xí)應(yīng)用于無(wú)人機(jī)圖像。谷歌稱(chēng)這并非用于攻擊性的用途。你在信上簽名了嗎?
Hinton:作為一名谷歌的高管,我認(rèn)為我不應(yīng)該公開(kāi)抱怨,所以我是私下抱怨。我沒(méi)有在給[谷歌聯(lián)合創(chuàng)始人]謝爾蓋?布林(Sergey Brin)的信上簽名。他說(shuō)他對(duì)這件事也有點(diǎn)不高興。所以他們后來(lái)沒(méi)有繼續(xù)深究。
問(wèn):谷歌的領(lǐng)導(dǎo)決定走完那項(xiàng)合同,但不續(xù)簽合同。他們還發(fā)布了一系列使用人工智能的指導(dǎo)原則,其中包括承諾不將該技術(shù)用于武器。
Hinton:我認(rèn)為谷歌的決定是正確的。會(huì)有各種各樣的事情需要云計(jì)算,很難知道在哪里畫(huà)一條線(xiàn),從某種意義上說(shuō),畫(huà)線(xiàn)這件事情是相當(dāng)任意的。我很高興谷歌畫(huà)出了這條線(xiàn)。這些原則在我看來(lái)很有意義。
問(wèn):人工智能在日常生活中也會(huì)引發(fā)倫理問(wèn)題。例如,當(dāng)軟件被用于在社會(huì)服務(wù)或醫(yī)療保健中做決策時(shí)。我們應(yīng)該注意什么?
Hinton:我是讓技術(shù)起作用方面的專(zhuān)家,但不是社會(huì)政策方面的專(zhuān)家。在這方面,我確實(shí)擁有相關(guān)技術(shù)專(zhuān)長(zhǎng)的是,監(jiān)管機(jī)構(gòu)是否應(yīng)該堅(jiān)持要求技術(shù)人員解釋你的AI系統(tǒng)是如何工作的。我認(rèn)為那樣的話(huà),將是一場(chǎng)徹底的災(zāi)難。
對(duì)于現(xiàn)在的AI系統(tǒng)所做的大部分事情,人們無(wú)法解釋它們是如何工作的。比如說(shuō),當(dāng)你雇傭一個(gè)人的時(shí)候,這個(gè)決定是基于各種各樣你可以量化的東西,然后是各種各樣的直覺(jué)。人們不知道他們是怎么做到的。如果你讓他們解釋他們的決定,你是在強(qiáng)迫他們編一個(gè)故事。
神經(jīng)網(wǎng)絡(luò)也有類(lèi)似的問(wèn)題。當(dāng)你訓(xùn)練一個(gè)神經(jīng)網(wǎng)絡(luò)時(shí),它會(huì)學(xué)習(xí)十億個(gè)數(shù)字,這些數(shù)字代表了它從訓(xùn)練數(shù)據(jù)中提取出來(lái)的知識(shí)。如果你輸入一張圖像,輸出的是正確的決策,比如說(shuō),它會(huì)回答“這是不是一個(gè)行人”。但是如果你問(wèn)“它為什么這么認(rèn)為?”好吧,如果有任何簡(jiǎn)單的規(guī)則能判斷一張圖像是否包含行人,那么這個(gè)問(wèn)題應(yīng)該很久以前就已經(jīng)解決了。
問(wèn):那么我們?cè)趺粗?,什么時(shí)候可以信任這些系統(tǒng)呢?
Hinton:你應(yīng)該根據(jù)它們的表現(xiàn)來(lái)規(guī)范它們。你要運(yùn)行實(shí)驗(yàn),看看這個(gè)系統(tǒng)是否有偏見(jiàn),或者它與人類(lèi)相比,做同樣的事情殺死的人是否更少。對(duì)于自動(dòng)駕駛汽車(chē),我認(rèn)為人們現(xiàn)在多少接受了這一點(diǎn)。即使你不太清楚自動(dòng)駕駛汽車(chē)是如何做到這一切的,如果它的事故比人駕駛的汽車(chē)少得多,那它就是一件好事。我認(rèn)為我們必須像對(duì)待人那樣對(duì)待AI:你只需要看看它們表現(xiàn)如何,如果它們反復(fù)運(yùn)行崩潰,那么就要說(shuō)它們不夠好。
問(wèn):你曾說(shuō)過(guò),思考大腦是如何工作的,啟發(fā)了你對(duì)人工神經(jīng)網(wǎng)絡(luò)的研究。我們的大腦通過(guò)突觸連接的神經(jīng)元網(wǎng)絡(luò),從我們的感官中獲取信息的。人工神經(jīng)網(wǎng)絡(luò)通過(guò)數(shù)學(xué)神經(jīng)元網(wǎng)絡(luò)提供數(shù)據(jù),這些神經(jīng)元由稱(chēng)為權(quán)重的連接連接起來(lái)。在上周發(fā)表的一篇論文中,你和幾位合著者認(rèn)為,我們應(yīng)該做更多的工作來(lái)揭示大腦中運(yùn)作的學(xué)習(xí)算法。為什么?
(注: 論文題為Assessing the Scalability of Biologically-Motivated Deep Learning Algorithms and Architectures,地址:https://arxiv.org/abs/1807.04587)
Hinton:大腦解決的問(wèn)題與我們大多數(shù)的神經(jīng)網(wǎng)絡(luò)非常不同。大腦大約有100萬(wàn)億個(gè)突觸。一般來(lái)說(shuō),人工神經(jīng)網(wǎng)絡(luò)的權(quán)重?cái)?shù)量比大腦突觸至少要小10000倍。大腦用很多很多的突觸從幾個(gè)片段中學(xué)到盡可能多的東西。當(dāng)有很多情節(jié)或例子可以從中學(xué)習(xí)時(shí),深度學(xué)習(xí)擅長(zhǎng)利用神經(jīng)元之間更少的連接來(lái)學(xué)習(xí)。我認(rèn)為大腦不關(guān)心怎樣把大量的知識(shí)壓縮到幾個(gè)連接中,它關(guān)心的是利用大量的連接快速提取知識(shí)。
問(wèn):我們?cè)鯓硬拍軜?gòu)建起更強(qiáng)大的機(jī)器學(xué)習(xí)系統(tǒng)呢?
Hinton:我認(rèn)為我們需要轉(zhuǎn)向另一種計(jì)算機(jī)。幸運(yùn)的是,我這里有一個(gè)。
(Hinton把手伸進(jìn)皮夾,拿出一塊閃亮的大硅片。這是Graphcore的一個(gè)原型,Graphcore是一家英國(guó)初創(chuàng)公司,致力于開(kāi)發(fā)一種新型處理器,為機(jī)器/深度學(xué)習(xí)算法提供動(dòng)力。)
幾乎所有我們運(yùn)行神經(jīng)網(wǎng)絡(luò)的計(jì)算機(jī)系統(tǒng),甚至是谷歌的特殊硬件,都使用RAM(存儲(chǔ)正在使用的程序)。從RAM中提取神經(jīng)網(wǎng)絡(luò)的權(quán)重需要耗費(fèi)大量的能量,這樣處理器才能使用它。所以每個(gè)人都要確保一旦他們的軟件獲得了權(quán)重,就能多次使用它們。這是巨大的成本,因?yàn)槟悴荒転槊總€(gè)訓(xùn)練樣例改變所做事情。
問(wèn):最近對(duì)人工智能和機(jī)器學(xué)習(xí)的興趣和投資激增,意味著用于研究的資金比以往任何時(shí)候都要多。該領(lǐng)域的快速發(fā)展是否也帶來(lái)了新的挑戰(zhàn)?
Hinton:機(jī)器學(xué)習(xí)社區(qū)面臨的一大挑戰(zhàn)是,如果你想要在機(jī)器學(xué)習(xí)領(lǐng)域發(fā)表一篇論文,必須要有一個(gè)表,表上首行是各種不同的數(shù)據(jù)集,沿著左列是各種不同的方法,而且你的方法必須看起來(lái)是最好的。如果不是這樣,就很難發(fā)表。我不認(rèn)為這能鼓勵(lì)人們?nèi)ニ伎既碌南敕ā?/p>
現(xiàn)在,如果你提交的論文有一個(gè)全新的觀點(diǎn),它是沒(méi)有機(jī)會(huì)被接受的,因?yàn)樗鼤?huì)遇到一些不理解它的初級(jí)審稿人?;蛘吣銜?huì)遇到一位資深審稿人,他審稿的論文太多了,但第一次看不懂,認(rèn)為這肯定是胡說(shuō)八道。任何費(fèi)腦子的東西都不會(huì)被接受。我認(rèn)為這很糟糕。
尤其是在基礎(chǔ)科學(xué)會(huì)議上,我們應(yīng)該追求的是全新的想法。因?yàn)槲覀冎?,從長(zhǎng)遠(yuǎn)來(lái)看,一個(gè)全新的想法將比一個(gè)微小的改進(jìn)產(chǎn)生更大的影響。罔顧了這一事實(shí),我認(rèn)為這是機(jī)器學(xué)習(xí)領(lǐng)域的一個(gè)主要缺點(diǎn),這個(gè)領(lǐng)域資深的人不多,年輕人更多。
問(wèn):這會(huì)阻礙這一領(lǐng)域的發(fā)展嗎?
Hinton:只要再等幾年,這種不平衡就會(huì)得到糾正。這是暫時(shí)的。現(xiàn)在公司都在忙于教育人們,大學(xué)也在忙著教育人們,大學(xué)最終會(huì)在這個(gè)領(lǐng)域雇傭更多的教授,它本身會(huì)自我糾正的。
問(wèn):一些學(xué)者警告說(shuō),當(dāng)前的炒作可能會(huì)進(jìn)入“人工智能的寒冬”,就像上世紀(jì)80年代那樣,當(dāng)時(shí)由于進(jìn)展沒(méi)有達(dá)到預(yù)期,投向AI的興趣和資金都枯竭了。
Hinton:不,不會(huì)有人工智能的寒冬,因?yàn)锳I驅(qū)動(dòng)著你的手機(jī)。在過(guò)去的人工智能寒冬,AI并不是人們?nèi)粘I畹囊徊糠帧,F(xiàn)在它已經(jīng)是了。
-
神經(jīng)網(wǎng)絡(luò)
+關(guān)注
關(guān)注
42文章
4814瀏覽量
103601 -
人工智能
+關(guān)注
關(guān)注
1806文章
49014瀏覽量
249449
原文標(biāo)題:Hinton:我并不認(rèn)為會(huì)有AI寒冬
文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
迅為RK3588開(kāi)發(fā)板Linux安卓麒麟瑞芯微國(guó)產(chǎn)工業(yè)AI人工智能
最新人工智能硬件培訓(xùn)AI 基礎(chǔ)入門(mén)學(xué)習(xí)課程參考2025版(大模型篇)
一文速覽:人工智能(AI)算法與GPU運(yùn)行原理詳解

評(píng)論