一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

GPT-4只是AGI的火花?LLM終將退場,世界模型才是未來

Dbwd_Imgtec ? 來源:新智元報道 ? 2023-08-17 14:57 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

導讀

人類距離AGI還有多遠?也許大語言模型不是最終答案,一個理解世界的模型才是未來的方向。 在人類的認知之中,似乎早已習慣將通用人工智能(AGI)設定為人工智能的終極形態(tài)和發(fā)展的最終目標。

6b9efc0e-3caa-11ee-ac96-dac502259ad0.png

雖然OpenAI早已把公司的目標設定為實現(xiàn)AGI。但對于什么是AGI,OpenAI CEO Sam Altman自己都沒法給出具體的定義。

對于AGI何時能夠到來,也只存在于大佬們拋出的一個個近未來的敘事場景之中,似乎唾手可得,但又遙遙無期。

今天,在國外的知名的播客網(wǎng)站Substack上,一位名為Valentino Zocca的人工智能行業(yè)資深人士,站在人類歷史的敘事立場上,寫了一篇雄文,全面而深刻地講述了人類和通用人工智能之間的距離。

6bc4b6f6-3caa-11ee-ac96-dac502259ad0.png

文章中將AGI大致定義為一個「能夠理解世界的模型」,而不僅僅是「描述世界的模型」。

他認為,人類要想真正達到AGI的世界,就需要建立一個「能夠質(zhì)疑自身現(xiàn)實、能夠自我探究的系統(tǒng)」。

而這個偉大的探索過程中,也許誰都沒有資格和能力來給出一個具體的路線圖。

正如OpenAI科學家肯尼斯·斯坦利和喬爾·雷曼最近的新書《為什么偉大不能被計劃》中闡述的那樣,對于偉大的追求是個方向,但是具體的結(jié)果可能是意外所得。

我們離AGI還有多遠?

大約 20 萬年前,智人開始在地球上直立行走,與此同時,他們也開始了在思想和知識的領域中的遨游。

人類歷史上的一系列發(fā)現(xiàn)和發(fā)明塑造了人類的歷史。其中一些不僅影響了我們的語言和思維,還對我們的生理構(gòu)造產(chǎn)生了潛在的影響。

例如,火的發(fā)現(xiàn)使原始人能夠烹飪食物。熟食為大腦能提供了更多的能量,從而促進了人類智能的發(fā)展。

從車輪的發(fā)明到蒸汽機的創(chuàng)造,人類迎來了工業(yè)革命。電力進一步為我們今天的技術發(fā)展鋪平了道路,印刷術加快了新思想和新文化的廣泛傳播,促進了人類創(chuàng)新的發(fā)展。

然而,進步不僅來自于新的物理層面的發(fā)現(xiàn),同樣也源于新的思想。

西方世界的歷史是從羅馬帝國衰落到中世紀,在文藝復興和啟蒙運動期間經(jīng)歷了一次重生。

但隨著人類知識的增長,人類這個物種開始慢慢認識到自身的渺小。

在蘇格拉底之后的兩千多年里,人類開始「知道自己一無所知」,我們的地球不再被視為宇宙的中心。宇宙本身在擴張,而我們只是其中的一粒微塵。

改變對現(xiàn)實的看法

但人類對世界的認知的最大改變,發(fā)生在20世紀。

1931 年,Kurt G?del發(fā)表了不完備性定理。

僅僅四年后,為了延續(xù)「完備性」這一主題,愛因斯坦、Podolsky和 Rosen發(fā)表了題為「Can Quantum-Mechanical Description of Physical Reality Be Considered Complete?」(量子力學對于物理實在的描述是完備的嗎?)

隨后,玻爾(Niels Bohr)對這篇論文進行了反駁,證明了量子物理學的有效性。

G?del定理表明,即使是數(shù)學也無法最終證明一切——人類始終會有無法證明的事實——而量子理論則說明,我們的世界缺乏確定性,使我們無法預測某些事件,例如電子的速度和位置。

盡管愛因斯坦曾表達過「上帝不會與宇宙玩骰子」這一著名的觀點,但從本質(zhì)上講,僅僅在預測或理解物理中的事物時,人類的局限性就已經(jīng)體現(xiàn)得淋漓盡致。

無論人類如何努力地嘗試設計出一個由人類制定的規(guī)則來運行的數(shù)學宇宙,但這樣抽象的宇宙始終是不完整的,其中隱藏著無法證明又無法否認的客觀公理。

除了數(shù)學的抽象表述之外,人類的世界還由描述現(xiàn)實的哲學所表述。

但是人類發(fā)現(xiàn)自己無法描述、充分表達、理解甚至僅僅是定義這些表述。

20世紀初「真理」的概念依然是不確定的,「藝術」、「美」和「生命」等概念在定義層面也都缺乏基本的共識。

其他很多重要的概念也一樣,「智慧」和「意識」同樣沒有辦法被人類自己清晰地定義。

智能的定義

為了填補對于智能定義的空缺,2007年,Legg和Hart在「General Intelligence」一書中提出了機器智能的定義:「智能衡量的是智能體(Agent)在多變環(huán)境中實現(xiàn)目標的能力」。

同樣,在「Problem Solving and Intelligence」一書中,Hambrick、Burgoyne和Altman認為,解決問題的能力不僅是智能的一個方面或特征,而是智能的本質(zhì)。

這兩種說法在語言描述上有相似的地方,都認為「實現(xiàn)目標」可以與「解決問題」聯(lián)系起來。

6bd5bec4-3caa-11ee-ac96-dac502259ad0.png

Gottfredson在 「Mainstream Science on Intelligence: An Editorial with 52 Signatories」一書中,從更廣闊的視角總結(jié)了幾位研究者對于智能的定義:

「智能是一種非常普遍的心智能力,包括推理能力、計劃能力、解決問題的能力、抽象思維能力、理解復雜思想的能力、快速學習的能力以及從經(jīng)驗中學習的能力。它不僅僅是書本知識、狹隘的學術技能或應試技巧。相反,它反映了一種更廣泛、更深層次的理解周圍環(huán)境的能力——『捕捉』、『理解』事物或『想出』該做什么的能力」。

這一定義使智能的構(gòu)建超越了單純的 「解決問題的技能」,引入了兩個關鍵維度:從經(jīng)驗中學習的能力和理解周圍環(huán)境的能力。

換句話說,智能不應該被看作是一種抽象的找到解決一般問題的方法的能力,而應該被看作是一種具體的將我們從以往經(jīng)驗中學到的東西應用到我們所處環(huán)境中可能出現(xiàn)的不同情況的能力。

這就強調(diào)了智能與學習之間的內(nèi)在聯(lián)系。

在「How We Learn」一書中,Stanislas Dehaene將學習定義為 「學習是形成世界模型的過程」,意味著智能也是一種需要理解周圍環(huán)境并創(chuàng)建內(nèi)在模型來描述環(huán)境的能力。

因此,智能也需要創(chuàng)建世界模型的能力,盡管不僅僅包括這種能力。

當前的機器有多智能?

在討論人工通用智能(AGI)與狹義人工智能(Narrow AI)時,我們經(jīng)常會強調(diào)它們之間的區(qū)別。

狹義人工智能(或稱弱人工智能)非常普遍,也很成功,在特定任務中的表現(xiàn)往往都能超越人類。

比如這個眾所周知的例子,2016年,狹義人工智能AlphaGo在圍棋比賽中以 4 比 1 的大比分擊敗世界冠軍李世石,就是一個很好的例子。

不過,2023年業(yè)余棋手Kellin Perline利用人工智能沒有沒有辦法應對的戰(zhàn)術又在圍棋場上替人類扳回了一局,說明了狹義人工智能在某些情況下確實還有局限性。

它缺乏人類那種識能別不常見戰(zhàn)術,并做出相應調(diào)整的能力。

而且,在最基礎的層面上,即使是剛?cè)胄械臄?shù)據(jù)科學家,都明白人工智能所依賴的每個機器學習模型,都需要在偏差(bias)和方差(variance)之間取得平衡。

這意味著要從數(shù)據(jù)中學習,理解和歸納解決方案,而不僅僅是死記硬背。

狹義人工智能利用計算機的算力和內(nèi)存容量,可以相對輕松地根據(jù)大量觀察到的數(shù)據(jù)生成復雜的模型。

但是,一旦條件稍有變化,這些模型往往就無法通用。

這就好比我們根據(jù)觀測結(jié)果提出了一個描述地球的引力理論,然后卻發(fā)現(xiàn)物體在月球上要輕得多。

如果我們在引力理論知識的基礎上使用變量而不是數(shù)字,我們就會明白如何使用正確的數(shù)值快速預測每個行星或衛(wèi)星上的引力大小。

但是,如果我們只使用沒有變量的數(shù)字方程,那么在不重寫這些方程的情況下,我們將無法正確地將這些方程推廣到其他星球。

換句話說,人工智能可能無法真正 「學習」,而只能提煉信息或經(jīng)驗。人工智能不是通過形成一個全面的世界模型去理解,而只是創(chuàng)建一個概要去表述。

我們真的到達AGI了嗎?

現(xiàn)在人們普遍理解的AGI是指:能夠在人類水平或者更高水平的多個認知領域進行理解和推理的人工智能系統(tǒng),即強人工智能。

而我們當前用于特定任務的人工智能僅是一種弱人工智能,如下圍棋的AlphaGO。

AGI代表一種涵蓋抽象思維領域各個領域的、具有人類智能水平的人工智能系統(tǒng)。

這意味著,我們所需的AGI是一個與經(jīng)驗一致且能做到準確預測的世界模型。

如「Safety Literature Review」(AGI安全文獻綜述)中Everitt、Lea和Hutter指出的事實那樣:AGI還沒有到來。

對于「我們離真正的AGI還有多遠」這個問題,不同的預測之間差異很大。

但與大多數(shù)人工智能研究人員和權(quán)威機構(gòu)的觀點是一致的,即人類距離真正的通用人工智能最少也有幾年的時間。

在GPT-4發(fā)布后,面對這個目前性能最強大的人工智能,很多人將GPT-4視作AGI的火花。

4月13日,OpenAI的合作伙伴微軟發(fā)布了一篇論文「Sparks of Artificial General Intelligence:Early experiments with GPT-4」(通用人工智能的火花:GPT-4的早期實驗)。

6be97f22-3caa-11ee-ac96-dac502259ad0.png

論文地址:https://arxiv.org/pdf/2303.12712

其中提到:

「GPT-4不僅掌握了語言,還能解決涵蓋數(shù)學、編碼、視覺、醫(yī)學、法律、心理學等領域的前沿任務,且不需要人為增加任何的特殊提示。

并且在所有上述任務中,GPT-4的性能水平都幾乎與人類水平相當?;贕PT-4功能的廣度和深度,我們相信它可以合理地被視為通用人工智能的近乎但不完全的版本。」

但就像卡內(nèi)基梅隆大學教授Maarten Sap所評價的那樣,「AGI的火花」只是一些大公司將研究論文也納為公關宣傳的一個例子。

另一方面,研究員兼機器企業(yè)家Rodney Brooks指出了人們認識上的一個誤區(qū):「在評估ChatGPT等系統(tǒng)的功能時,我們經(jīng)常把性能等同于能力?!?/p>

錯誤地將性能等同于能力,意味著GPT-4生成的是對世界的摘要性描述認為是對真實世界的理解。

這與人工智能模型訓練的數(shù)據(jù)有關。

現(xiàn)在的大多數(shù)模型僅接受文本訓練,不具備在現(xiàn)實世界中說話、聽聲、嗅聞以及生活行動的能力。

這種情況與柏拉圖的洞穴寓言相似,生活在洞穴中的人只能看到墻上的影子,而不能認識到事物的真實存在。

僅在文本上訓練的世界模型,僅僅只能保證它們在語法上的正確。但在本質(zhì)上,它不理解語言所指的對象,也缺乏與環(huán)境直接接觸的常識。

當前大模型的主要局限性

大語言模型(LLM)最受爭議的挑戰(zhàn)是它們產(chǎn)生幻覺的傾向。

幻覺指的是模型會捏造參考資料和事實,或在邏輯推斷、因果推理等方面顛三倒四、生成毫無意義的內(nèi)容的情況。

大語言模型的幻覺源于它們?nèi)狈κ录g因果關系的了解。

在「Is ChatGPT a Good Causal Reasoner? A Comprehensive Evaluation」這篇論文中,研究人員證實了這樣一個事實:

ChatGPT這類大語言模型,不管現(xiàn)實中是否存在關系,它們都傾向于假設事件之間存在因果關系。

6c16d38c-3caa-11ee-ac96-dac502259ad0.png

論文地址:https://arxiv.org/pdf/2305.07375

研究人員最后得出結(jié)論:

「ChatGPT是一個優(yōu)秀的因果關系解釋器,但卻不是一個好的因果關系推理器。」

同理,這個結(jié)論也可以推廣到其他LLM中。

這意味著,LLM本質(zhì)上只具有通過觀察進行因果歸納的能力,而不具備因果演繹的能力。

這也導致了LLM的局限性,如果智能(intelligence)意味著從經(jīng)驗中學習,并將學習得到的內(nèi)容轉(zhuǎn)化為對理解周圍環(huán)境的世界模型,那么因果推斷作為構(gòu)成學習的基本要素,是智能不可或缺的一部分。

現(xiàn)有的LLMs正缺乏這一方面,這也是Yann LeCun認為現(xiàn)在的大語言模型不可能成為AGI的原因。

結(jié)論

正如20世紀初誕生的量子力學所揭示的,現(xiàn)實往往與我們?nèi)粘S^察所形成的直覺不同。

我們所構(gòu)建的語言、知識、文本資料、甚至是視頻、音頻等資料都僅僅只是我們所能體驗到的現(xiàn)實的很有限的一部分。

就像我們探索、學習并掌握一個違背我們直覺和經(jīng)驗的現(xiàn)實那樣,當我們能夠構(gòu)建一個有能力質(zhì)疑自身現(xiàn)實、能夠自我探究的系統(tǒng)時,AGI才能真正實現(xiàn)。

而至少在現(xiàn)階段,我們應該構(gòu)建一個能夠進行因果推斷、能夠理解世界的模型。

這一前景是人類歷史上又一進步,意味著我們對世界本質(zhì)的更深的理解。

盡管AGI的出現(xiàn)將減弱我們對自身獨一無二的價值篤定,以及存在的重要性,但通過不斷地進步和對認知邊界的拓展,我們將更加清楚地認識到人類在宇宙中的地位,以及人類與宇宙的關系。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • Agi
    Agi
    +關注

    關注

    0

    文章

    93

    瀏覽量

    10519
  • OpenAI
    +關注

    關注

    9

    文章

    1210

    瀏覽量

    8928
  • LLM
    LLM
    +關注

    關注

    1

    文章

    325

    瀏覽量

    844

原文標題:GPT-4只是AGI的火花?LLM終將退場,世界模型才是未來

文章出處:【微信號:Imgtec,微信公眾號:Imagination Tech】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    無法在OVMS上運行來自Meta的大型語言模型LLM),為什么?

    無法在 OVMS 上運行來自 Meta 的大型語言模型LLM),例如 LLaMa2。 從 OVMS GitHub* 存儲庫運行 llama_chat Python* Demo 時遇到錯誤。
    發(fā)表于 03-05 08:07

    OpenAI簡化大模型選擇:薩姆·奧特曼制定路線圖

    前的技術環(huán)境下,大模型被廣泛應用于各種聊天機器人中,其中OpenAI的ChatGPT就是一個典型的例子。然而,對于大多數(shù)用戶來說,選擇最適合自己需求的AI模型卻并非易事。OpenAI目前提供了多種模型供用戶選擇,其中包括能夠快速
    的頭像 發(fā)表于 02-18 09:12 ?501次閱讀

    OpenAI即將發(fā)布GPT-4.5與GPT-5

    ,GPT-4.5將在未來幾周內(nèi)率先亮相,它將是OpenAI通用GPT-4模型的繼承者。這款新的算法在技術上進行了諸多優(yōu)化和升級,旨在為用戶提供更加精準、高效的AI服務。 而在
    的頭像 發(fā)表于 02-13 13:43 ?645次閱讀

    OpenAI即將推出GPT-5模型

    OpenAI首席執(zhí)行官奧爾特曼近日宣布了一項重要消息:OpenAI將在今年未來幾個月內(nèi)推出全新的GPT-5模型。這一消息引起了業(yè)界的廣泛關注和期待。 據(jù)了解,GPT-5
    的頭像 發(fā)表于 02-13 11:21 ?593次閱讀

    國產(chǎn)大模型DeepSeek推出DeepSeek-V3

    眾所周知,過去一年間,大語言模型(LLM)領域經(jīng)歷了翻天覆地的變化... 回望2023年底,OpenAI的GPT-4還是一座難以逾越的高峰,其他AI實驗室都在思考同一個問題:OpenAI究竟掌握了
    的頭像 發(fā)表于 01-06 10:51 ?3820次閱讀
    國產(chǎn)大<b class='flag-5'>模型</b>DeepSeek推出DeepSeek-V3

    一文說清楚什么是AI大模型

    DALL-E)、科學計算模型(如 AlphaFold)以及多模態(tài)模型。這些模型通過海量數(shù)據(jù)訓練,展現(xiàn)出高度的泛用性。 比較有代表性的大語言模型L
    的頭像 發(fā)表于 01-02 09:53 ?1727次閱讀
    一文說清楚什么是AI大<b class='flag-5'>模型</b>

    LLM技術的未來趨勢分析

    。 技術進步 1. 模型規(guī)模的增長 隨著計算能力的提升和數(shù)據(jù)集的擴大,LLM的規(guī)模也在不斷增長。更大的模型能夠捕捉更復雜的語言模式,提高任務的性能。例如,GPT-3
    的頭像 發(fā)表于 11-08 09:35 ?1142次閱讀

    如何訓練自己的LLM模型

    訓練自己的大型語言模型LLM)是一個復雜且資源密集的過程,涉及到大量的數(shù)據(jù)、計算資源和專業(yè)知識。以下是訓練LLM模型的一般步驟,以及一些關鍵考慮因素: 定義目標和需求 : 確定你的
    的頭像 發(fā)表于 11-08 09:30 ?1525次閱讀

    麻省理工學院推出新型機器人訓練模型

    近日,據(jù)TechCrunch報道,麻省理工學院的研究團隊展示了一種創(chuàng)新的機器人訓練模型,該模型突破了傳統(tǒng)模仿學習方法的局限,不再依賴標準數(shù)據(jù)集,而是借鑒了大型語言模型LLM)如
    的頭像 發(fā)表于 11-04 14:56 ?947次閱讀

    Llama 3 與 GPT-4 比較

    隨著人工智能技術的飛速發(fā)展,我們見證了一代又一代的AI模型不斷突破界限,為各行各業(yè)帶來革命性的變化。在這場技術競賽中,Llama 3和GPT-4作為兩個備受矚目的模型,它們代表了當前AI領域的最前
    的頭像 發(fā)表于 10-27 14:17 ?1155次閱讀

    理解LLM中的模型量化

    在本文中,我們將探討一種廣泛采用的技術,用于減小大型語言模型LLM)的大小和計算需求,以便將這些模型部署到邊緣設備上。這項技術稱為模型量化。它使得人工智能
    的頭像 發(fā)表于 10-25 11:26 ?705次閱讀
    理解<b class='flag-5'>LLM</b>中的<b class='flag-5'>模型</b>量化

    科大訊飛發(fā)布訊飛星火4.0 Turbo:七大能力超GPT-4 Turbo

    超過GPT-4 Turbo,數(shù)學能力和代碼能力更是超過了Open AI最新一代GPT模型GPT-4o。此外,其效率相對提升50%。
    的頭像 發(fā)表于 10-24 11:39 ?1083次閱讀

    端到端InfiniBand網(wǎng)絡解決LLM訓練瓶頸

    ChatGPT對技術的影響引發(fā)了對人工智能未來的預測,尤其是多模態(tài)技術的關注。OpenAI推出了具有突破性的多模態(tài)模型GPT-4,使各個領域取得了顯著的發(fā)展。 這些AI進步是通過大規(guī)模模型
    的頭像 發(fā)表于 10-23 11:26 ?2234次閱讀
    端到端InfiniBand網(wǎng)絡解決<b class='flag-5'>LLM</b>訓練瓶頸

    LLM模型推理加速的關鍵技術

    LLM(大型語言模型)大模型推理加速是當前人工智能領域的一個研究熱點,旨在提高模型在處理復雜任務時的效率和響應速度。以下是對LLM
    的頭像 發(fā)表于 07-24 11:38 ?1824次閱讀

    OpenAI 推出 GPT-4o mini 取代GPT 3.5 性能超越GPT 4 而且更快 API KEY更便宜

    OpenAI推出了GPT-4o mini模型,用來取代GPT-3.5.這是目前市場上最具成本效益的小模型。 ? 該模型在MMLU上得分為82
    的頭像 發(fā)表于 07-21 10:20 ?1689次閱讀
    OpenAI 推出 <b class='flag-5'>GPT-4</b>o mini 取代<b class='flag-5'>GPT</b> 3.5 性能超越<b class='flag-5'>GPT</b> <b class='flag-5'>4</b> 而且更快 API KEY更便宜