以電子數(shù)字計算機的誕生及其生成的代碼遍布全球為界,計算的歷史可以劃分為“舊約”和“新約”兩個階段。舊約的先驅們提供了基本的邏輯,包括Thomas Hobbes和Gottfried Wilhelm Leibniz。新約的先驅們包括Alan Turing、John von Neumann、Claude Shannon和Norbert Wiener,他們給機器帶來智能。
Alan Turing曾經(jīng)在思考如何讓機器更加智能。
John von Neumann想知道機器實現(xiàn)自我復制需要什么。
Claude Shannon想知道讓機器在干擾中可靠地通信,需要做些什么。
Norbert Wiener為機器的控制機能而深思。
1949年,Wiener第一次警告控制系統(tǒng)可能超出人類掌控,那會兒第一代存儲程序電子數(shù)字計算機才剛剛問世,這些系統(tǒng)需要人類程序員的直接操作,這削弱了Wiener的擔憂。既然程序員控制著機器,那么問題會出在哪里?從那以后,關于自主控制風險的爭論一直圍繞著數(shù)字編碼機器的控制權和限制的爭論。盡管它們擁有驚人的能力,但幾乎沒有被發(fā)現(xiàn)真正的思維。這是一個危險的假設——如果數(shù)字計算正在被其他東西所取代,該怎么辦呢?
模擬計算的悄然回歸
過去的一百年里,電子學經(jīng)歷了兩個根本的轉變:
從模擬到數(shù)字;
從真空管到固體器件。
這兩個幾乎同時發(fā)生的轉變并不意味著它們密不可分。就像真空管組件也可以用于實現(xiàn)數(shù)字計算一樣,模擬計算也可以在固體器件下實現(xiàn)。盡管真空管在商業(yè)上已經(jīng)絕跡,但模擬計算仍然存在。
模擬計算和數(shù)字計算之間沒有精確的區(qū)別。
一般來說,數(shù)字計算處理整數(shù)、二進制序列、確定性邏輯和離散增量的時間,而模擬計算處理實數(shù)、非確定性邏輯和連續(xù)函數(shù),包括時間——時間是作為現(xiàn)實世界中的連續(xù)體而存在的。
許多系統(tǒng)的運行可跨越模擬和數(shù)字計算。比如一棵樹,可以說集成了大量的輸入,可以被看作是連續(xù)函數(shù),但是如果你砍掉這棵樹,你會發(fā)現(xiàn)它一直在以數(shù)字方式計算年份。
在模擬計算中,復雜性存在于網(wǎng)絡拓撲結構中,而不是代碼中。信息就像電壓和相對脈沖頻率那樣,是被處理為值的連續(xù)函數(shù),而不是對離散位串的邏輯運算。
數(shù)字計算不能容忍錯誤或歧義,它依賴于過程中每一步的糾錯。
而模擬計算可以容忍錯誤,允許錯誤的存在。
自然界使用數(shù)字編碼來存儲、復制和重組核苷酸序列,但自然界的智能和控制依賴于模擬計算,它在神經(jīng)系統(tǒng)內運行。每個活細胞的遺傳系統(tǒng)都是一臺存儲程序計算機。但大腦不是。
數(shù)字計算機執(zhí)行兩種比特之間的轉換:表示空間差異的比特和表示時間差異的比特。這兩種信息形式之間的序列和結構轉換由計算機編程控制,只要計算機還需要程序員,我們就能維持人類的控制權。
模擬計算機也是負責協(xié)調兩種信息形式之間的轉換:空間結構和時間行為。在這里,沒有代碼,也沒有程序。不知何故——我們也不完全理解的原因——自然界進化出神經(jīng)系統(tǒng)這種模擬計算機,它如此神奇,蘊含了從世界上吸收的信息。它們可以學習,它們學到的內容之一就是控制,它們學會了控制自己的行為,它們學會了盡可能地控制環(huán)境。
計算機科學在實現(xiàn)神經(jīng)網(wǎng)絡方面有著悠久的歷史——甚至可以追溯到計算機科學出現(xiàn)之前——但在很大程度上,這些都是數(shù)字計算機對神經(jīng)網(wǎng)絡的模擬,而不是自然界本身進化出來的神經(jīng)網(wǎng)絡。
如今,事情發(fā)生了變化:從底層來看,無人機、自動駕駛和手機這三駕馬車推動神經(jīng)形態(tài)微處理器的發(fā)展,它們直接在硅(和其他潛在的基質)上實現(xiàn)了真正的神經(jīng)網(wǎng)絡,而不是模擬神經(jīng)網(wǎng)絡;從頂層來看,我們最大的及最成功的企業(yè)在其滲透和控制世界的過程中,越來越多地轉向模擬計算。
當我們爭論數(shù)字計算機的智能時,模擬計算正在悄然取代數(shù)字計算,就像二戰(zhàn)后,真空管等模擬元件被重新設計用于制造數(shù)字計算機一樣。在現(xiàn)實世界中,運行有限代碼的獨立確定性有限狀態(tài)處理器正在形成大規(guī)模的、不確定的、非有限狀態(tài)的后生動物有機體。由此產生的模擬/數(shù)字混合系統(tǒng)共同處理比特流,就像在真空管中處理電子流一樣的方式,而不是像由離散狀態(tài)設備處理比特流那樣單獨處理電子流。比特是新的電子。
模擬又回來了,它的本質是承擔控制。
這些系統(tǒng)控制著從商品流通到交通流通再到思想流通的一切,它們以統(tǒng)計的方式運行,就像神經(jīng)元或大腦處理脈沖頻率編碼的信息時那樣。
智能的出現(xiàn)引起了智人的注意,但我們真正應該擔心的是控制的出現(xiàn)。
建立于現(xiàn)實之上的系統(tǒng),卻反過來控制現(xiàn)實
POSSIBLE MINDS: Twenty-Five Ways of Looking at AI封面
1958年的美國人需要保衛(wèi)美國全境免受空中打擊。為了區(qū)分敵機,除了依靠計算機網(wǎng)絡和早期預警雷達站以外,還需要實時更新所有商業(yè)空中交通地圖。美國為此建立了SAGE(半自動地面環(huán)境)系統(tǒng)。SAGE反過來又催生了Sabre的誕生,Sabre是第一個用于實時預訂航班的綜合預訂系統(tǒng)。Sabre和它的后代很快就不再是僅有空余座位的地圖,而成為了一個系統(tǒng),它開始通過分散的情報來控制飛機的飛行地點和時間。
但系統(tǒng)里不是有個控制室嗎?不是有人正在控制系統(tǒng)嗎?可能不是。比如,你開發(fā)了一個實時繪制高速公路交通地圖的系統(tǒng),讓汽車接入該地圖,并報告自己實時的速度和位置。其結果是一個完全分散的控制系統(tǒng)。
系統(tǒng)的控制模型并不存在于任何部位,系統(tǒng)本身就已經(jīng)是了。
這是21世紀的第一個十年,想象一下,你想實時追蹤人際關系的復雜性。對于大學規(guī)模較小的大學生來說,你可以為他們的社交生活建立一個中央數(shù)據(jù)庫,還可以保持它的實時更新,但如果大學的規(guī)模再大一點,它的維護將變得完全不可能。更好的做法是在本地托管簡單、免費的半自治代碼副本,讓社交網(wǎng)絡自己更新。這段代碼是由數(shù)字計算機執(zhí)行的,但是系統(tǒng)作為整體而執(zhí)行的模擬計算遠遠超過了底層代碼的復雜性。結果是,其產生的關于社會圖景的脈沖頻率編碼模型最終成為了真正的社會圖景。它廣泛地在校園和世界各地里傳播。
如果你想制造一臺機器來捕捉人類已知的一切,這意味著什么呢?你有著摩爾定律的支持,將世界上所有的信息數(shù)字化并不需要太長時間。你掃描每一本實體書,收集每一封信件,每24小時就可以收集49年之久的視頻,同時還可以實時追蹤人們的位置、當前的行為。但是,你如何理解這些信息的意思呢?
即使是在所有東西都已被數(shù)字化的時代,這也不是任何嚴格的邏輯就能夠定義的,因為人類的意義并不是根本上合乎邏輯的。一旦你集齊了所有可能的答案,你所能做的最好的事情就是建立一個定義準確的問題,并編寫一個脈沖頻率加權圖來展示所有東西是如何聯(lián)系起來的。
在你意識到之前,你的系統(tǒng)不僅會觀察和映射事物的意義,它還會開始構建意義。隨著時間的推移,它將控制意義,就像交通地圖開始控制交通流量一樣,即使看上去,似乎沒有人在控制它。
人類難以理解智能
人工智能有三條定律。
第一定律被稱為Ashby 's law,以《大腦設計(Design for a Brain)》一書的作者、控制論專家W. Ross Ashby的名字命名。它指出,任何有效的控制系統(tǒng)都必須與它所控制的系統(tǒng)一樣復雜。
第二定律由John von Neumann闡述,他指出:復雜系統(tǒng)的定義是它構成自己最簡單的行為描述。有機體最簡單的完整模型就是有機體本身。試圖將系統(tǒng)的行為簡化為任何其他形式的描述都會使事情變得更復雜,而不是更簡單。
第三條定律指出:任何簡單到可以理解的系統(tǒng)都不會復雜到足以智能地運行,而任何復雜到可以智能地運行的系統(tǒng),都將復雜到難以理解。
有些人認為,在我們理解智能之前,我們不必擔心機器中出現(xiàn)的超人智能,第三定律可能會讓這些人放心一些。
但第三定律存在一個漏洞:不理解的東西,也完全有可能構建出它來。你不需要徹底理解大腦是如何工作的,就能構建起一個正常工作的大腦。這是一個漏洞,無論程序員和他們的道德顧問對算法做再多的監(jiān)督,也無法彌補。
絕對“好”的人工智能是一個神話。我們與真正的人工智能的關系將永遠是一個信仰的問題,而不需要證明。
我們過于擔心機器的智能,而對自我復制、溝通和控制卻擔心得遠遠不夠。數(shù)字編程無法控制的模擬系統(tǒng)之興起將標志著計算領域的新一次革命。對于那些相信自己能造出機器來控制一切的人,大自然的回應將是讓他們造出一臺能控制他們自己的機器。
-
機器人
+關注
關注
213文章
29756瀏覽量
213043 -
人工智能
+關注
關注
1807文章
49035瀏覽量
249754
原文標題:“人工智能第三定律”的漏洞:人類能造出失控的機器人
文章出處:【微信號:worldofai,微信公眾號:worldofai】歡迎添加關注!文章轉載請注明出處。
發(fā)布評論請先 登錄
評論