一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

強化學(xué)習(xí)之父Richard Sutton總結(jié)AI研究“苦澀教訓(xùn)”

DPVg_AI_era ? 來源:lp ? 2019-03-22 08:45 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

強化學(xué)習(xí)之父Richard Sutton總結(jié)AI研究“苦澀教訓(xùn)”,認為利用算力才是王道,不應(yīng)依靠人類知識。對此,著名機器人專家Rodney Brooks 撰文反駁,闡述了Sutton觀點錯誤的六大原因。

The Bitter Lesson還是A Better Lesson?

近日,強化學(xué)習(xí)之父、加拿大計算機科學(xué)家 Richard S. Sutton 在其個人網(wǎng)站上發(fā)文The Bitter Lesson,指出了過去 70 年來 AI 研究方面的苦澀教訓(xùn):我們過于依靠人類知識了。

參考閱讀:

強化學(xué)習(xí)之父:AI研究70年教訓(xùn)深刻,未來探索要靠智能體自己

他認為,過去 70 年來,AI 研究走過的最大彎路,就是過于重視人類既有經(jīng)驗和知識,研究人員在訓(xùn)練 AI 模型時,往往想將人類知識灌輸給智能體,而不是讓智能體自己去探索。這實際上只是個記錄的過程,并未實現(xiàn)真正的學(xué)習(xí)。

Sutton說,事實證明,這種基于人類知識的所謂 “以人為本” 的方法,并未收到很好的效果,尤其是在可用計算力迅猛增長的大背景下,在國際象棋、圍棋、計算機視覺等熱門領(lǐng)域,智能體本身已經(jīng)可以自己完成 “規(guī)?;阉骱蛯W(xué)習(xí)”,取得的效果要遠好于傳統(tǒng)方法。

由此,Sutton認為利用算力才是王道,過去的教訓(xùn)必須總結(jié),未來的研究中,應(yīng)該讓 AI 智能體自己去發(fā)現(xiàn),而不是將我們發(fā)現(xiàn)的東西記下來。

這番言論引來許多反對的聲音,比如,牛津大學(xué)計算機科學(xué)教授 Shimon Whiteson 寫道:“Sutton 說 AI 的發(fā)展歷程告訴我們,利用計算力要勝過利用人類知識。我認為這是對歷史的一種很奇怪的解釋。AI 的成功不僅取決于豐富的計算資源,還取決于沒有被拋棄的人類知識?!?/p>

近日,著名 AI 專家 Rodney Brooks 也加入反對Sutton的隊伍,他撰文 “A Better Lesson”,闡述Rich Sutton的觀點錯誤的六大原因。

Rodney Brooks 被譽為機器人教父,機器人領(lǐng)域祖師爺級別的學(xué)者,他還是澳洲科學(xué)院院士,美國國家工程院院士,前 MIT 計算機科學(xué)和人工智能實驗室主任。

Rodney Brooks

新智元對 Rodney Brooks 的評論文章翻譯如下:

Sutton觀點錯誤的六大原因

就在上周,Rich Sutton 發(fā)表了一篇題為《苦澀的教訓(xùn)》(The Bitter Lesson) 的短文。我打算盡量把這篇評論寫得比他的帖子更短。Sutton 在強化學(xué)習(xí)領(lǐng)域有著長期而持續(xù)的貢獻。

在他的文章中,Sutton 用了很多很好的例子來論證,在人工智能 70 年的歷史中,更多的計算和更少的內(nèi)置知識總是構(gòu)建 AI 系統(tǒng)的最佳方式。這與許多新進入 AI 領(lǐng)域的人們目前的思維模式產(chǎn)生了共鳴,他們認為,設(shè)計學(xué)習(xí)網(wǎng)絡(luò)并投入大量計算能力,要比為某個任務(wù)專門設(shè)計一個計算架構(gòu)更好。然而,我必須要說的是,上周在美國國家科學(xué)院 (National Academy of Science) 舉辦的為期兩天的深度學(xué)習(xí)研討會上,后一種觀點更為流行,某種程度上這與 Sutton 的觀點正好相反。

我認為 Sutton 錯了,原因有很多。

1.深度學(xué)習(xí)最著名的成功之一就是圖像標注 (image labeling),使用 CNN,即卷積神經(jīng)網(wǎng)絡(luò),但 CNN 的本質(zhì)是網(wǎng)絡(luò)的前端由人類設(shè)計來處理平移不變性,即對象可以出現(xiàn)在框架的任何地方。使用深度學(xué)習(xí)網(wǎng)絡(luò)也必須學(xué)習(xí)那些看起來學(xué)究氣十足的東西,并且會使學(xué)習(xí)的計算成本提高許多個數(shù)量級。

2.在圖像標記方面,還有其他一些東西受到了極大的影響,因為目前的 CNN 中缺乏某些眾所周知對人類表現(xiàn)很重要的內(nèi)置功能。例如,顏色恒常性 (color constancy)。

有這么一個著名的例子:一個停車標志上被貼了一些膠帶,就被一個為自動駕駛訓(xùn)練的 CNN 誤認為是一個 “限速 45 英里” 的限速標志了。

人類不會犯這樣的錯誤,因為他們知道停車標志是紅色的,限速標志是白色的。CNN 并不知道這一點,因為相機中的像素顏色和物體的實際顏色之間的關(guān)系是一種非常復(fù)雜的關(guān)系,而這種關(guān)系并沒有被訓(xùn)練算法使用的區(qū)區(qū)數(shù)千萬張訓(xùn)練圖像所闡明。

未來可行的訓(xùn)練集可以是將人類的工作負載轉(zhuǎn)移為創(chuàng)建大量的訓(xùn)練集,并編碼我們希望系統(tǒng)學(xué)習(xí)的標簽。這就像直接構(gòu)建一個顏色恒常性階段一樣需要內(nèi)置知識。這是把人類的智力工作轉(zhuǎn)移到其他地方的花招。

3.事實上,對于今天的大多數(shù)機器學(xué)習(xí)問題,都需要人來設(shè)計一個特定的網(wǎng)絡(luò)架構(gòu)才能使學(xué)習(xí)順利進行。所以,我們現(xiàn)在期望的不是由人類構(gòu)建特定的知識,而是由人類構(gòu)建特定的、適當?shù)木W(wǎng)絡(luò),以及構(gòu)建需要使用的特定訓(xùn)練機制。再說一次,說 AI 在沒有人類參與的情況下取得成功,這是一種花招。相反,我們要求人類將他們的智慧以一種不同的形式注入算法中。

4. 大量的數(shù)據(jù)集根本不是人類學(xué)習(xí)東西所需要的,所以這里缺失了某些東西。今天的數(shù)據(jù)集可以有數(shù)十億個樣本,但一個人可能只需要少數(shù)幾個樣本就能學(xué)會同樣的東西。但更糟糕的是,訓(xùn)練我們今天所看到的大多數(shù)網(wǎng)絡(luò)所需的計算量只能由預(yù)算非常龐大的大公司提供,AI 的成本過高使得個人甚至大學(xué)院系難以推動。對于智能系統(tǒng),這不是一個可持續(xù)發(fā)展的模式。對于一些機器學(xué)習(xí)問題,由于在訓(xùn)練過程中需要消耗大量能耗,我們已經(jīng)開始看到一些明顯節(jié)約的方法。

5. 摩爾定律 (Moore’s Law) 正在放緩,因此,一些計算機架構(gòu)師報告稱,單個芯片上計算量倍增的時間正在從一年延長到 20 年。此外,登納德縮放定律 (Dennard scaling) 在 2006 年的崩潰意味著機器的功耗隨著性能提升而提高,因此我們甚至可能無法承受在小型機器上提高機器學(xué)習(xí)的結(jié)果 (更不用說實際的學(xué)習(xí)),例如,自動駕駛汽車可能需要 2500 瓦的電力來進行計算 —— 而人腦只需要 20 瓦。因此,Sutton 的觀點只會讓情況變得更糟,讓 AI 和 ML 的使用變得不切實際。

6.計算機架構(gòu)師現(xiàn)在正試圖通過為訓(xùn)練好的網(wǎng)絡(luò)構(gòu)建專用芯片來解決這些問題。但他們需要將硬件鎖定到特定的網(wǎng)絡(luò)結(jié)構(gòu),并利用人工分析,在不改變計算結(jié)果的情況下大幅降低電力預(yù)算。這有兩個缺點。首先,它鎖定了特定于特定解決方案的硬件,因此每當我們遇到新的 ML 問題,我們都需要設(shè)計新的硬件。其次,它只是簡單地轉(zhuǎn)移了應(yīng)用人類智能的地方,而不是完全消除人類參與設(shè)計的需要。

因此,我對 Rich Sutton 這篇文章的看法是,我們應(yīng)該從過去 70 年的 AI 研究中吸取的教訓(xùn),根本不是只要使用更多的計算力就總能成功。相反,我認為應(yīng)該吸取的更好的教訓(xùn)是,我們必須考慮任何解決方案的總成本,而且到目前為止,這些都需要大量的人類智慧。

這篇評論,包括這句話,比 Sutton 的帖子短了 78 個詞。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 機器人
    +關(guān)注

    關(guān)注

    213

    文章

    29748

    瀏覽量

    212959
  • 智能體
    +關(guān)注

    關(guān)注

    1

    文章

    307

    瀏覽量

    11081
  • 強化學(xué)習(xí)
    +關(guān)注

    關(guān)注

    4

    文章

    269

    瀏覽量

    11604

原文標題:算力不是王道,強化學(xué)習(xí)之父Rich Sutton的六點錯誤

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    NVIDIA Isaac Lab可用環(huán)境與強化學(xué)習(xí)腳本使用指南

    Lab 是一個適用于機器人學(xué)習(xí)的開源模塊化框架,其模塊化高保真仿真適用于各種訓(xùn)練環(huán)境,Isaac Lab 同時支持模仿學(xué)習(xí)(模仿人類)和強化學(xué)習(xí)(在嘗試和錯誤中進行學(xué)習(xí)),為所有機器
    的頭像 發(fā)表于 07-14 15:29 ?571次閱讀
    NVIDIA Isaac Lab可用環(huán)境與<b class='flag-5'>強化學(xué)習(xí)</b>腳本使用指南

    任正非說 AI已經(jīng)確定是第四次工業(yè)革命 那么如何從容地加入進來呢?

    的基本理論。了解監(jiān)督學(xué)習(xí)、無監(jiān)督學(xué)習(xí)強化學(xué)習(xí)的基本原理。例如,在監(jiān)督學(xué)習(xí)中,理解如何通過標注數(shù)據(jù)來訓(xùn)練模型進行分類或回歸任務(wù),像通過大量的貓和狗的圖片標注數(shù)據(jù)來訓(xùn)練一個圖像分類模型,
    發(fā)表于 07-08 17:44

    【「零基礎(chǔ)開發(fā)AI Agent」閱讀體驗】+ 入門篇學(xué)習(xí)

    很高興又有機會學(xué)習(xí)ai技術(shù),這次試讀的是「零基礎(chǔ)開發(fā)AI Agent」,作者葉濤、管鍇、張心雨。 大模型的普及是近三年來的一件大事,萬物皆可大模型已成為趨勢。作為大模型開發(fā)應(yīng)用中重要組成部分,提示詞
    發(fā)表于 05-02 09:26

    18個常用的強化學(xué)習(xí)算法整理:從基礎(chǔ)方法到高級模型的理論技術(shù)與代碼實現(xiàn)

    本來轉(zhuǎn)自:DeepHubIMBA本文系統(tǒng)講解從基本強化學(xué)習(xí)方法到高級技術(shù)(如PPO、A3C、PlaNet等)的實現(xiàn)原理與編碼過程,旨在通過理論結(jié)合代碼的方式,構(gòu)建對強化學(xué)習(xí)算法的全面理解。為確保內(nèi)容
    的頭像 發(fā)表于 04-23 13:22 ?421次閱讀
    18個常用的<b class='flag-5'>強化學(xué)習(xí)</b>算法整理:從基礎(chǔ)方法到高級模型的理論技術(shù)與代碼實現(xiàn)

    【「零基礎(chǔ)開發(fā)AI Agent」閱讀體驗】+初品Agent

    。 Agent在發(fā)展過程中,經(jīng)歷了5個階段,即: 1)符號Agent階段 2)反應(yīng)式Agent階段 3)基于強化學(xué)習(xí)的Agent階段 4)帶遷移學(xué)習(xí)和元學(xué)習(xí)的Agent階段 5)基于大模型的Agent階段 關(guān)于Agent的
    發(fā)表于 04-22 11:51

    AI演進的核心哲學(xué):使用通用方法,然后Scale Up!

    作者:算力魔方創(chuàng)始人/英特爾創(chuàng)新大使劉力 一,AI演進的核心哲學(xué):通用方法 + 計算能力? Richard S. Sutton在《The Bitter Lesson》一文中提到,“回顧AI
    的頭像 發(fā)表于 04-09 14:31 ?349次閱讀
    <b class='flag-5'>AI</b>演進的核心哲學(xué):使用通用方法,然后Scale Up!

    AI Agent 應(yīng)用與項目實戰(zhàn)》----- 學(xué)習(xí)如何開發(fā)視頻應(yīng)用

    再次感謝發(fā)燒友提供的閱讀體驗活動。本期跟隨《AI Agent 應(yīng)用與項目實戰(zhàn)》這本書學(xué)習(xí)如何構(gòu)建開發(fā)一個視頻應(yīng)用。AI Agent是一種智能應(yīng)用,能夠根據(jù)用戶需求和環(huán)境變化做出相應(yīng)響應(yīng)。通?;谏疃?/div>
    發(fā)表于 03-05 19:52

    詳解RAD端到端強化學(xué)習(xí)后訓(xùn)練范式

    受限于算力和數(shù)據(jù),大語言模型預(yù)訓(xùn)練的 scalinglaw 已經(jīng)趨近于極限。DeepSeekR1/OpenAl01通過強化學(xué)習(xí)后訓(xùn)練涌現(xiàn)了強大的推理能力,掀起新一輪技術(shù)革新。
    的頭像 發(fā)表于 02-25 14:06 ?602次閱讀
    詳解RAD端到端<b class='flag-5'>強化學(xué)習(xí)</b>后訓(xùn)練范式

    名單公布!【書籍評測活動NO.55】AI Agent應(yīng)用與項目實戰(zhàn)

    。為了更深入理解 AI Agent 的技術(shù)基礎(chǔ),以下是其關(guān)鍵技術(shù)架構(gòu)及應(yīng)用場景的詳細解析: (1)自主性:AI Agent 通過感知外界環(huán)境,能夠在沒有人工干預(yù)的情況下進行決策。這種特性通常通過強化學(xué)習(xí)
    發(fā)表于 01-13 11:04

    螞蟻集團收購邊塞科技,吳翼出任強化學(xué)習(xí)實驗室首席科學(xué)家

    領(lǐng)域的研究與發(fā)展。令人矚目的是,邊塞科技的創(chuàng)始人吳翼已正式加入該實驗室,并擔(dān)任首席科學(xué)家一職。 吳翼在其個人社交平臺上對這一變動進行了回應(yīng)。他表示,自己最近接受了螞蟻集團的邀請,負責(zé)大模型強化學(xué)習(xí)領(lǐng)域的研究
    的頭像 發(fā)表于 11-22 11:14 ?1586次閱讀

    如何使用 PyTorch 進行強化學(xué)習(xí)

    強化學(xué)習(xí)(Reinforcement Learning, RL)是一種機器學(xué)習(xí)方法,它通過與環(huán)境的交互來學(xué)習(xí)如何做出決策,以最大化累積獎勵。PyTorch 是一個流行的開源機器學(xué)習(xí)庫,
    的頭像 發(fā)表于 11-05 17:34 ?1045次閱讀

    AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新》第二章AI for Science的技術(shù)支撐學(xué)習(xí)心得

    for Science的技術(shù)支撐”的學(xué)習(xí)心得,可以從以下幾個方面進行歸納和總結(jié): 1. 技術(shù)基礎(chǔ)的深入理解 在閱讀第二章的過程中,我對于AI for Science所需的技術(shù)基礎(chǔ)有了更加深入的理解。這一章詳細闡述了
    發(fā)表于 10-14 09:16

    AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新》第一章人工智能驅(qū)動的科學(xué)創(chuàng)新學(xué)習(xí)心得

    人工智能:科學(xué)研究的加速器 第一章清晰地闡述了人工智能作為科學(xué)研究工具的強大功能。通過機器學(xué)習(xí)、深度學(xué)習(xí)等先進技術(shù),AI能夠處理和分析海量
    發(fā)表于 10-14 09:12

    谷歌AlphaChip強化學(xué)習(xí)工具發(fā)布,聯(lián)發(fā)科天璣芯片率先采用

    近日,谷歌在芯片設(shè)計領(lǐng)域取得了重要突破,詳細介紹了其用于芯片設(shè)計布局的強化學(xué)習(xí)方法,并將該模型命名為“AlphaChip”。據(jù)悉,AlphaChip有望顯著加速芯片布局規(guī)劃的設(shè)計流程,并幫助芯片在性能、功耗和面積方面實現(xiàn)更優(yōu)表現(xiàn)。
    的頭像 發(fā)表于 09-30 16:16 ?705次閱讀

    人工智能ai4s試讀申請

    目前人工智能在繪畫對話等大模型領(lǐng)域應(yīng)用廣闊,ai4s也是方興未艾。但是如何有效利用ai4s工具助力科研是個需要研究的課題,本書對ai4s基本原理和原則,方法進行描訴,有利于
    發(fā)表于 09-09 15:36