人工智能的主流技術的發(fā)展大致經(jīng)歷了三個重要的歷程。1956-1965年,人工智能的形成期,強調推理的作用。一般認為只要機器被賦予邏輯推理能力就可以實現(xiàn)人工智能。不過此后人們發(fā)現(xiàn),只是具備了邏輯推理能力,機器還遠遠達不到智能化的水平。1965-1990年,人工智能的“知識期”。這一時期,人們認為要讓機器變得有智能,就應該設法讓機器具有知識。
后來人們發(fā)現(xiàn),知識獲取相當困難。1990年至今,人工智能進入“機器學習期”。隨著各種機器學習算法的提出和應用,特別是深度學習技術的發(fā)展,人們希望機器能夠通過大量數(shù)據(jù)分析,從而自動學習出知識并實現(xiàn)智能化水平。這一時期,隨著計算機硬件水平的提升,大數(shù)據(jù)分析技術的發(fā)展,機器采集、存儲、處理數(shù)據(jù)的水平有了大幅提高。特別是深度學習技術對知識的理解比之前淺層學習有了很大的進步,Alpha Go和中韓圍棋高手過招大幅領先就是人工智能的高水平代表之一。
人工智能發(fā)展的62年中,有高潮,有低潮,呈現(xiàn)波浪式前進,螺旋式提升。1960年代,人工智能大發(fā)展,1970年代,人工智能處于低潮,特別是神經(jīng)網(wǎng)路、機器翻譯等的研究項目大量取消。1980年代,人工智能發(fā)展迎來了“日本五代機”大好時光。但是到1988年,“日本五代機”研究沒有達到預期的目標,引起人們反思人工智能的研究。1991年,人工智能頂級刊物“Artificial Intelligence”第47卷發(fā)表了人工智能基礎專輯,指出了人工智能研究的趨勢。Kirsh在專輯中提出了人工智能的五個基本問題:
(1)知識與概念化是否是人工智能的核心?
(2)認知能力能否與載體分開來研究?
(3)認知的軌跡是否可用類自然語言來描述?
(4)學習能力能否與認知分開來研究?
(5)所有的認知是否有一種統(tǒng)一的結構?
這些問題都是與人工智能有關的認知問題,必須從認知科學的基礎理論進行探討。基礎理論研究是為獲得關于現(xiàn)象和可觀察事實的基本原理及新知識而進行的實驗性和理論性工作,它不以任何專門或特定的應用或使用為目的。
在過去的幾年間,由于神經(jīng)網(wǎng)絡,或者“深度學習”方法的飛速發(fā),人工智能已經(jīng)發(fā)生了一場變革,這些人工智能方法的起源都直接來自神經(jīng)科學。1943年,心理學家麥克洛奇(W S McCulloch) 和數(shù)理邏輯學家皮茲 (W Pitts) 在《數(shù)學生物物理公報 (Bulletin ofMathematical Biophysics)》上發(fā)表了關于神經(jīng)網(wǎng)絡的數(shù)學模型,提出了MP神經(jīng)網(wǎng)絡模型,開創(chuàng)了人工神經(jīng)網(wǎng)絡的研究。
神經(jīng)計算的研究以建設人工的神經(jīng)網(wǎng)絡作為開端,這些神經(jīng)網(wǎng)絡能計算邏輯函數(shù)。不久之后,有人提出了另外的一些機制,認為神經(jīng)網(wǎng)絡中的神經(jīng)元可能可以逐步地從監(jiān)督式的回饋或者非監(jiān)督方法中有效的編碼環(huán)境統(tǒng)計下進行學習。這些機制打開了人工神經(jīng)網(wǎng)絡研究的另一扇大門,并且提供了當代對深度學習進行研究的基礎。費爾德曼(Feldmann) 和 巴拉德(Ballard) 的連接網(wǎng)絡模型指出了傳統(tǒng)的人工智能計算與生物的“計算"的區(qū)別, 提出了并行分布處理的計算原則。
1985年,欣頓(Hinton)和塞杰諾斯基(Sejnowsky) 提出了一個可行的算法,稱為玻耳茲曼(Boltzmann) 機模型。他們借用了統(tǒng)計物理學的概念和方法,首次提出了多層網(wǎng)絡的學習算法。1986年,魯梅爾哈特(Rumelhart) 和 麥克萊倫德(McClelland) 等人提出并行分布處理(Parallel Distributed Processing, 簡稱PDP) 的理論。一群神經(jīng)科學和認知科學家意識到,他們的研究屬于平行分布式處理(PDP)。
當時,大多數(shù)的人工智能研究都集中在基于序列計算建立邏輯處理系統(tǒng),這一概念部分是受到這樣一種思路的啟發(fā)——人類的智能包含了對符號表征的處理。但是,在有一些領域,越來越多的人意識到,純粹的符號方法可能過于脆弱,并且在解決人類習以為常的現(xiàn)實問題時,可能不夠靈活。取而代之的是,關于大腦基礎知識的不斷增加,指出了一個非常不一樣的方向,強調動態(tài)和高度平行信息處理的重要性。基于此,PDP興起提出了一個思路:人類的認知和行為來自動態(tài)的、分布式交互,并且基于神經(jīng)網(wǎng)絡內(nèi)單一類神經(jīng)元的處理單元,通過學習進程來對交互進行調整,他們通過調整參數(shù),以將誤差最小化,將反饋最大化。在各個地方,神經(jīng)科學為架構和算法的范圍提供了初步指導,從而引導人工智能成功應用神經(jīng)網(wǎng)絡。
除了在深度學習發(fā)展中的神經(jīng)科學發(fā)揮重要作用之外,神經(jīng)科學還推動了強化學習(RL)的出現(xiàn)。強化學習方法解決了如何通過將環(huán)境中的狀態(tài)映射到行動來最大化未來獎勵的問題,并且是人工智能研究中使用最廣泛的工具之一。深度 Q 網(wǎng)絡(DQN)通過學習將圖像像素的矢量轉換為用于選擇動作(例如操縱桿移動)的策略,在 Atari 2600 視頻游戲中展現(xiàn)出專家級的水平。DQN 的一個關鍵因素是“體驗重播”(experience replay),其中網(wǎng)絡以基于實例的方式存儲訓練數(shù)據(jù)的一部分,然后“離線重播”,從過去新發(fā)現(xiàn)的成功或失敗中學習。體驗重播對于最大限度地提高數(shù)據(jù)效率至關重要,避免了從連續(xù)相關經(jīng)驗中學習的不穩(wěn)定的影響,使網(wǎng)絡即使在復雜、高度結構化的順序環(huán)境中,也能學習可行的價值函數(shù)。
體驗重播直接受理論的啟發(fā),這些理論旨在了解哺乳動物大腦中的多個記憶系統(tǒng)如何相互作用。動物的學習行為是由海馬和新皮質中互補學習系統(tǒng)為基礎。DQN 中的重播緩沖區(qū)可以被視為一個非常原始的海馬,使計算機能夠進行輔助學習,就像在生物大腦里發(fā)生的那樣。后續(xù)工作表明,當具有高度獎勵價值的事件重播被優(yōu)先考慮時,DQN 中體驗重播的好處得到了增長,正如海馬重播似乎更偏好能夠帶來高水平強化的事件一樣。
存儲在內(nèi)存緩沖區(qū)中的體驗不僅可以用于逐漸將深度網(wǎng)絡的參數(shù)調整為最佳策略(就像在 DQN 中那樣),還可以根據(jù)個人經(jīng)驗支持快速的行為變化。事實上,理論神經(jīng)科學已經(jīng)證明了情景控制的潛在好處,在生物大腦的海馬中,獎勵動作序列能夠在內(nèi)部從快速可更新的記憶庫中被重新激活。此外,當獲得的環(huán)境經(jīng)驗有限時,情景控制特別優(yōu)于其他的學習機制。最近的人工智能 研究已經(jīng)吸取了這些想法來克服深度強化學習網(wǎng)絡學習慢的特性,開發(fā)了實現(xiàn)情景控制的架構。這些網(wǎng)絡存儲特定的體驗,并且基于當前情況輸入和存儲在存儲器中的先前事件之間的相似性來選擇新的動作,考慮與之前的事件相關聯(lián)的獎勵。
智能科學是由腦科學、認知科學、人工智能等構建的前沿交叉學科,研究智能的基本理論和實現(xiàn)技術。腦科學從分子水平、細胞水平、行為水平研究人腦智能機理,建立腦模型,揭示人腦的本質。認知科學是研究人類感知、學習、記憶、思維、意識等人腦心智活動過程的科學。人工智能研究用人工的方法和技術,模仿、延伸和擴展人的智能, 實現(xiàn)機器智能。智能科學是實現(xiàn)人類水平的人工智能的重要途徑,引領新一代人工智能的發(fā)展。
-
人工智能
+關注
關注
1807文章
49029瀏覽量
249608 -
機器學習
+關注
關注
66文章
8503瀏覽量
134638
原文標題:基礎理論研究是人工智能持續(xù)發(fā)展的保證
文章出處:【微信號:AItists,微信公眾號:人工智能學家】歡迎添加關注!文章轉載請注明出處。
發(fā)布評論請先 登錄
AI技術助力可持續(xù)發(fā)展


商湯科技發(fā)布2024年可持續(xù)發(fā)展報告
人工智能對智慧園區(qū)的提升和幫助
安科瑞:以綜合能效管理解決方案,賦能人工智能時代的數(shù)據(jù)中心可持續(xù)發(fā)展

評論