一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

人工智能需要新的范式和理論

AI智勝未來 ? 來源:機(jī)器之心 ? 作者:李航 ? 2022-12-06 14:18 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

馮 · 諾伊曼的《計(jì)算機(jī)和人腦》是人類歷史上第一部將計(jì)算機(jī)和人腦相提并論的著作。這位科學(xué)巨人希望比較計(jì)算機(jī)和人腦的計(jì)算機(jī)制,為未來建立統(tǒng)一的計(jì)算理論打下基礎(chǔ)。事實(shí)上,建立計(jì)算機(jī)和人腦的統(tǒng)一計(jì)算理論是馮 · 諾伊曼晚年研究的主要課題。他所關(guān)注的統(tǒng)一計(jì)算理論應(yīng)該也是人工智能領(lǐng)域的核心問題。站在人工智能的角度,人腦是智能系統(tǒng)的代表,應(yīng)該從人腦的計(jì)算機(jī)制得到啟發(fā),開發(fā)出未來的智能計(jì)算理論和方法。

本文首先通過字節(jié)跳動人工智能實(shí)驗(yàn)室的一些研究成果介紹最前沿的人工智能技術(shù),總結(jié)這一兩年來人工智能領(lǐng)域的研究發(fā)展動態(tài)。之后分享我們對人工智能領(lǐng)域長期發(fā)展的看法。主張人工智能的未來需要新的計(jì)算范式和新的計(jì)算理論。具體地,腦啟發(fā)計(jì)算(brain-inspired computing)應(yīng)是重要的探索方向;從信息、數(shù)據(jù)、模型角度的學(xué)習(xí)理論研究至關(guān)重要。

人工智能的最新動態(tài)

這一兩年來人工智能特別是深度學(xué)習(xí)的研究又有了令人矚目的進(jìn)展。主要體現(xiàn)在幾個(gè)方面。Transformer 模型及其變種被廣泛應(yīng)用到各個(gè)領(lǐng)域,包括語言、語音、圖像。人工智能各個(gè)子領(lǐng)域的差異更多地體現(xiàn)在數(shù)據(jù)和應(yīng)用問題上,使用的模型和算法趨于相同。基于大數(shù)據(jù)的模型預(yù)訓(xùn)練或自監(jiān)督學(xué)習(xí)被廣泛使用,成為各個(gè)領(lǐng)域?qū)W習(xí)和推理的基礎(chǔ)。深度學(xué)習(xí)實(shí)現(xiàn)的是類推推理,如何實(shí)現(xiàn)邏輯推理也成為研究的重要課題。人工智能技術(shù)被廣泛應(yīng)用到各個(gè)領(lǐng)域,在實(shí)際應(yīng)用中的可信賴 AI 問題也成為關(guān)注的焦點(diǎn),包括深度學(xué)習(xí)的可解釋性,公平性等。深度學(xué)習(xí)技術(shù)也被推廣應(yīng)用到其他領(lǐng)域,典型的是科學(xué)智能(AI for Science),即用深度學(xué)習(xí)技術(shù)解決物理、化學(xué)、生物、醫(yī)藥學(xué)問題的新方向。總結(jié)趨勢如下。

Transformer 模型一統(tǒng)天下

視覺、聽覺、語言處理的區(qū)別更多在于數(shù)據(jù)

預(yù)訓(xùn)練、自監(jiān)督學(xué)習(xí)越加重要

從類推推理到邏輯推理

可信賴的 AI 廣受關(guān)注

擴(kuò)展到科學(xué)智能等新領(lǐng)域

字節(jié)跳動人工智能實(shí)驗(yàn)室在進(jìn)行自然語言處理、語音處理、計(jì)算機(jī)視覺、科學(xué)智能、機(jī)器人,機(jī)器學(xué)習(xí)公平性等各個(gè)領(lǐng)域的技術(shù)研究和開發(fā)。這里介紹幾個(gè)今年發(fā)表的工作,以展示人工智能最近的發(fā)展動向。具體概述非自回歸模型 DA-Transformer,端到端語音到文本翻譯模型 ConST,多顆粒度的視覺語言模型 X-VLM,圖片和文本統(tǒng)一生成模型 DaVinci,語言理解模型 Neural Symbolic Processor。

更快的 Transformer 模型

331bdce2-7524-11ed-8abf-dac502259ad0.png

圖 1 DA-Transformer 的架構(gòu)

Transformer 最初作為機(jī)器翻譯模型被提出,后來被廣泛應(yīng)用于人工智能各個(gè)領(lǐng)域。Transformer 的一個(gè)大問題是解碼基于自回歸,計(jì)算需要一環(huán)扣一環(huán)地進(jìn)行,速度比較慢。為解決這個(gè)問題,非自回歸模型成為最近研究的一個(gè)熱點(diǎn)。目前為止提出的非自回歸模型在機(jī)器翻譯的精度上沒有能夠與原始的 Transformer 匹敵。我們提出的 DA-Transformer 在機(jī)器翻譯上首次達(dá)到了 Transformer 同樣的精度,而處理的速度提高了 7~14 倍[1]。DA-Transformer 不僅可以用于機(jī)器翻譯,而且可以用于任意的序列到序列任務(wù)。

DA-Transformer (Directed Acyclic Graph Transformer)的核心想法是在解碼層的最后一層構(gòu)建有向無環(huán)圖,如圖 1 所示。有向無環(huán)圖的結(jié)點(diǎn)表示生成翻譯(目標(biāo)語言句子)的狀態(tài),邊表示狀態(tài)之間的轉(zhuǎn)移。邊上有狀態(tài)轉(zhuǎn)移概率,結(jié)點(diǎn)上有表示向量,生成目標(biāo)語言單詞。解碼器的輸入是目標(biāo)語言單詞的位置的索引。有向無環(huán)圖的結(jié)點(diǎn)對應(yīng)著解碼器的輸入,有向邊只能是從前面的位置指向后面的位置。有向無環(huán)圖的從起始位置到終止位置的一條路徑,對應(yīng)著一個(gè)翻譯狀態(tài)的序列,在一條路徑上可以產(chǎn)生目標(biāo)語言句子(單詞的序列)。其他部分的結(jié)構(gòu)與 Transformer 相同。

DA-Transformer 的解碼是基于并行處理的。在解碼器輸入的各個(gè)位置上進(jìn)行并行計(jì)算,得到解碼器最后一層的有向無環(huán)圖的結(jié)點(diǎn)上的表示向量。在此基礎(chǔ)上計(jì)算各個(gè)邊上的轉(zhuǎn)移概率,從每個(gè)位置出發(fā)到達(dá)其之后位置的轉(zhuǎn)移概率是歸一的。這個(gè)過程的計(jì)算速度非??臁A-Transformer 的訓(xùn)練也是基于翻譯數(shù)據(jù)進(jìn)行極大似然估計(jì)。這時(shí)一個(gè)翻譯(目標(biāo)語言句子)可以由有向無環(huán)圖的多條路徑產(chǎn)生,翻譯的生成概率要對所有的路徑求和。使用動態(tài)規(guī)劃可以高效地完成一個(gè)翻譯概率(似然函數(shù))的計(jì)算。DA-Transformer 的推理可以使用多個(gè)算法。最簡單的貪心算法從起始位置開始從左到右動態(tài)遞歸地計(jì)算到每個(gè)位置概率最大的翻譯,直到生成句子終止符為止。

語言和語音的融合ConST

傳統(tǒng)的語音到文本的翻譯是通過語音識別和文本機(jī)器翻譯的串聯(lián)實(shí)現(xiàn)。這個(gè)方法的缺點(diǎn)是推理過程中的錯誤會累加。ConST 可以直接將英語的語音翻譯成中文的文本,而且在語音到文本的翻譯中,達(dá)到了 SOTA(state of the art)的效果[2]。

ConST 的架構(gòu)由 Transformer 的編碼器和解碼器組成(見圖 2)。編碼器既可以接受語音輸入又可以接受文本輸入。輸入是語音時(shí)有特殊的前處理模塊,使用 wave2vec2 和 CNN。輸入是文本時(shí)處理跟一般的 Transformer 相同。用同一個(gè)系統(tǒng)實(shí)現(xiàn)語音到文本的語音識別,文本到文本的機(jī)器翻譯,語音到文本的語音翻譯。訓(xùn)練時(shí)進(jìn)行語音識別、文本翻譯、語音翻譯的多任務(wù)學(xué)習(xí)。ConST 的最大特點(diǎn)是,使用對比學(xué)習(xí)將語義相同的語音輸入的表示和文本輸入的表示拉近。可以理解為對表示學(xué)習(xí)進(jìn)行了正則化。圖 2 的下圖左邊直觀說明沒有使用對比學(xué)習(xí)的表示,右邊直觀說明使用了對比學(xué)習(xí)之后的表示。

334a55cc-7524-11ed-8abf-dac502259ad0.png

3360df90-7524-11ed-8abf-dac502259ad0.png

圖 2 ConST 的架構(gòu)與語義空間

視覺語言預(yù)訓(xùn)練模型X-VLM

X-VLM 是以 Transformer 為基礎(chǔ),以文本 - 圖片對數(shù)據(jù)作為輸入進(jìn)行預(yù)訓(xùn)練得到的視覺語言模型,可以用多種跨模態(tài)的下游任務(wù)(見圖 3)[3]。具有多模態(tài)處理能力的視覺語言模型是最近研究的熱點(diǎn)。我們這里假設(shè)文本和圖片對的內(nèi)容是強(qiáng)關(guān)聯(lián)的,文本描述圖片內(nèi)容,但描述是多顆粒度的。文本可能描述圖片整體、區(qū)域或物體,如圖 3 所示。這種基礎(chǔ)模型對 visual question answering 和 visual grounding 等任務(wù)等更加適用,也可以用于其他任務(wù)。X-VLM 是目前視覺語言各種任務(wù)的 SOTA。

33a62b40-7524-11ed-8abf-dac502259ad0.png

33c175f8-7524-11ed-8abf-dac502259ad0.png

圖 3 X-VLM 的架構(gòu)和英語解題例

之前的方法都是在訓(xùn)練之前或訓(xùn)練之中使用物體檢測,而 X-VLM 完全不使用。從已有數(shù)據(jù)中導(dǎo)出不同顆粒度的文本 - 圖片對數(shù)據(jù),包括物體的名稱和圖像中框出的物體的對應(yīng)數(shù)據(jù)。模型由文本編碼器、圖像編碼器、交叉編碼器組成。文本編碼器和圖像編碼器是 Transformer 的編碼器,交叉編碼器有從文本到圖像的注意力計(jì)算,文本表示作為 query。訓(xùn)練有四個(gè)目標(biāo),包括邊框預(yù)測、掩碼語言模型、匹配、對比學(xué)習(xí)。邊框預(yù)測是掩蓋物體的邊框,從文本 - 圖片對數(shù)據(jù)中還原邊框,掩碼語言模型掩蓋一些 token 再從文本 - 圖片對數(shù)據(jù)中還原,匹配判斷文本 - 圖片數(shù)據(jù)的匹配程度,對比學(xué)習(xí)進(jìn)一步在 batch 數(shù)據(jù)中拉進(jìn)語義相近的文本和圖片的表示。X-VLM 已經(jīng)用于多個(gè)實(shí)際應(yīng)用,比如圖 3 下的小學(xué)英語解題。輸入帶圖的英語填空題,系統(tǒng)可以自動完成填空,這個(gè)任務(wù)之前是非常困難的。

最近的 X^2-VLM 將 X-VLM 擴(kuò)展,也可以處理視頻和多語言。實(shí)驗(yàn)結(jié)果顯示在 base 和 large 的規(guī)模上 X^2-VLM 是語言視覺任務(wù)的最新 SOTA[4]。

DaVinci

Davinci 是更偏文本和圖片生成的多樣化視覺語言處理模型[5]。文本 - 圖片對數(shù)據(jù)作為輸入,假設(shè)文本 - 圖片是強(qiáng)關(guān)聯(lián)的,文本描述圖片內(nèi)容。DaVinci 一個(gè)模型,完成從文本到圖片生成,從圖片到文本生成,甚至其他的理解和生成等許多任務(wù),在這些任務(wù)上達(dá)到或接近 SOTA 結(jié)果。

33ee3bf6-7524-11ed-8abf-dac502259ad0.png

340a9e68-7524-11ed-8abf-dac502259ad0.png

圖 4 DaVinci 的架構(gòu)和圖片生成例

DaVinci 的模型是 Transformer,如圖 4 上圖所示,預(yù)訓(xùn)練采用 prefix language modeling 的方法。預(yù)訓(xùn)練時(shí),輸入是文本 - 圖片對,將其中的部分文本或部分圖片掩蓋,然后讓數(shù)據(jù)通過 Transformer 的編碼器和解碼器,將被掩蓋的內(nèi)容還原。事先對圖片進(jìn)行 image tokenizing 處理,每個(gè)圖片的 token 由一個(gè)離散的編碼表示,進(jìn)行了圖像的離散化。還原實(shí)際是生成被掩蓋部分的圖片 token,這時(shí)沒有被掩蓋的上下文(可能是文本或圖片)幫助生成。沒有被掩蓋的部分就是 prefix。DaVinci 的模型雖然簡單,但可以做高質(zhì)量的文本和圖片生成。比如,圖 4 中的下圖是給定文本 DaVinci 自動生成的圖片的例子。DaVinci 論證了使用同一個(gè)模型是能夠同時(shí)學(xué)習(xí)“寫”(基于圖片的文本生成)和“畫”(基于文本的圖像生成),并且這兩種能力能夠互相促進(jìn)。

深度學(xué)習(xí)加邏輯推理Neural Symbolic Processor

343aa054-7524-11ed-8abf-dac502259ad0.png

圖 5. NSP 的架構(gòu),由系統(tǒng) 1 和系統(tǒng) 2 組成

這里考慮自然語言理解的問題,具體的文本蘊(yùn)含任務(wù)。比如 "Sam 有 10 美元,他花了 6 美元" 這句話和 "Sam 有 4 美元" 這句話存在蘊(yùn)含關(guān)系。傳統(tǒng)的深度學(xué)習(xí)方法用預(yù)訓(xùn)練語言模型 BERT 判斷,可以達(dá)到一定的準(zhǔn)確率,但是有很多蘊(yùn)含關(guān)系的判斷需要邏輯推理,包括數(shù)字推理。純深度學(xué)習(xí)的方法并不能保證做得很好。推測人分別使用系統(tǒng) 1 和系統(tǒng) 2 進(jìn)行類推推理和邏輯推理,然后進(jìn)行綜合判斷。

NSP(neural symbolic processing)是模仿人的自然語言理解系統(tǒng),也包含系統(tǒng) 1 和系統(tǒng) 2(見圖 5)[6]。核心想法是將輸入的文本,通過兩路處理分別進(jìn)行類推推理和邏輯推理。先將輸入通過編碼器轉(zhuǎn)換成基于向量的內(nèi)部表示。之后,在系統(tǒng) 1 里基于內(nèi)部表示進(jìn)行預(yù)測,與基于 BERT 的傳統(tǒng)深度學(xué)習(xí)方法相似。在系統(tǒng) 2 里將內(nèi)部表示進(jìn)行解碼,產(chǎn)生基于符號的內(nèi)部表示,稱之為程序,接著執(zhí)行程序;可以認(rèn)為對輸入文本進(jìn)行了翻譯,轉(zhuǎn)換成程序。最后,將兩路的處理結(jié)果進(jìn)行集成,產(chǎn)生最終的結(jié)果,集成使用 MoE 模型。編碼器和解碼器都基于預(yù)訓(xùn)練語言模型 BART。比如,針對上面的例子,系統(tǒng) 2 產(chǎn)生并執(zhí)行程序,也就是將第 1 個(gè)數(shù)字減去第 2 個(gè)數(shù)字等于第 3 個(gè)數(shù)字(M1-M2=N1)。這樣的機(jī)制可以保證無論數(shù)字具體是多少,都可以進(jìn)行同樣的推理。系統(tǒng) 1 同時(shí)進(jìn)行基于深度模型(編碼器)的預(yù)測。兩者的判斷又通過 MoE 得到最終集成結(jié)果。NSP 在需要邏輯推理的語言理解任務(wù)上比傳統(tǒng)的方法在準(zhǔn)確率上有大幅度的提升。

人工智能需要怎樣的計(jì)算范式

深度學(xué)習(xí)雖然取得了很大的進(jìn)展,但相比人腦的學(xué)習(xí)和推理能力還相差甚遠(yuǎn),主要體現(xiàn)以下幾個(gè)方面。深度學(xué)習(xí)善于類推推理,但需要邏輯推理時(shí)往往無能為力。深度學(xué)習(xí)依然需要依賴于大模型、大數(shù)據(jù)和大算力,數(shù)據(jù)效率和能源效率要比人低很多。更重要的是,學(xué)習(xí)和推理往往只能針對具體的任務(wù)進(jìn)行,而不像人腦那樣擁有通用的學(xué)習(xí)和推理能力。

展望未來,在很長一段時(shí)間里機(jī)器學(xué)習(xí),特別是深度學(xué)習(xí)仍將是人工智能的主體技術(shù)。另一方面,人工智能需要更大的突破,有必要研究和開發(fā)下一代的智能計(jì)算技術(shù)。我們認(rèn)為,腦啟發(fā)計(jì)算應(yīng)該是未來發(fā)展的主要方向。最近 Bengio、LeCun 等也提出了類似的主張[7]。這里說的腦啟發(fā)計(jì)算并不是簡單地模仿人腦,而是根據(jù)計(jì)算機(jī)的實(shí)際特點(diǎn)參考人腦的機(jī)制,構(gòu)建機(jī)器的學(xué)習(xí)和推理智能系統(tǒng),主體可能還是深度學(xué)習(xí),但與深度學(xué)習(xí)又有本質(zhì)的不同,屬于新的范式。腦科學(xué)家馬爾將計(jì)算分為三個(gè)層面,分別是功能、算法和實(shí)現(xiàn)。腦啟發(fā)計(jì)算更多的應(yīng)該是從功能層面借鑒人腦的機(jī)制。希望能解決樣本效率、能源效率、邏輯推理等方面的問題,為領(lǐng)域帶來更大的突破。下面通過幾個(gè)例子說明我們所說的腦啟發(fā)計(jì)算。

3488fb46-7524-11ed-8abf-dac502259ad0.png

圖 6. 大腦皮層中的主要腦區(qū)

人腦的信息處理分多個(gè)腦區(qū)。各個(gè)腦區(qū)相對獨(dú)立,又相互關(guān)聯(lián)(見圖 6)。比如,對自己祖母的記憶,包括視覺、聽覺、語言等方面的信息,分別存儲在不同的腦區(qū)。腦啟發(fā)計(jì)算可以參考人腦的分區(qū)處理機(jī)制。深度學(xué)習(xí)中的 MoE(mixture of experts)技術(shù)有一定的相關(guān)性。

3515e77c-7524-11ed-8abf-dac502259ad0.png

圖 7. 視覺處理的 What 通道和 Where 通道

人腦的視覺處理是分兩個(gè)通道進(jìn)行的,分別是 What 通道和 Where 通道(見圖 7)。What 通道負(fù)責(zé)識別物體的大小,形狀,顏色,而 Where 通道負(fù)責(zé)識別物體的空間位置?;谏疃葘W(xué)習(xí)的圖像識別不將兩者的信息加以區(qū)分。這就可能導(dǎo)致了學(xué)習(xí)效率的降低。比如,在卷積神經(jīng)網(wǎng)絡(luò)網(wǎng)絡(luò)的學(xué)習(xí)中需要通過數(shù)據(jù)增強(qiáng)的方法,增加樣本訓(xùn)練模型,以應(yīng)對圖像中物體的尺度不變性、旋轉(zhuǎn)不變性。

35227cda-7524-11ed-8abf-dac502259ad0.png

圖 8 語言處理的布洛卡區(qū)和韋尼克區(qū)

人腦的語言處理在布洛卡區(qū)和韋尼克區(qū)同時(shí)進(jìn)行,分別負(fù)責(zé)語法和詞匯(見圖 8)。人的語言理解和生成是在兩個(gè)腦區(qū)并行進(jìn)行的。而現(xiàn)在基于 Transformer 的語言處理模型都沒有將兩者分開,可能導(dǎo)致訓(xùn)練需要更多的樣本。

3532c360-7524-11ed-8abf-dac502259ad0.png

圖 9 人腦信息處理的系統(tǒng) 1 和系統(tǒng) 2

如上所述,人腦的信息處理由系統(tǒng) 1 和系統(tǒng) 2 組成(見圖 9)。如何實(shí)現(xiàn)包含系統(tǒng) 1 和系統(tǒng) 2 的智能系統(tǒng),是人工智能的一大課題。Neural Symbolic Processor 等采用的神經(jīng)符號處理是一條路徑,面向這個(gè)方向邁出了一小步。

人的許多感知和認(rèn)知能力是生來具有的,包括對物理法則、數(shù)量、概率等概念的認(rèn)識,以及語言的習(xí)得和使用。當(dāng)前的預(yù)訓(xùn)練、自監(jiān)督學(xué)習(xí)從大量的無監(jiān)督數(shù)據(jù)中自動學(xué)習(xí)基礎(chǔ)模型,也可以認(rèn)為學(xué)習(xí)到的對應(yīng)著人生來具有的能力。沒有必要假設(shè)人工智能系統(tǒng)需要將所有的能力都通過數(shù)據(jù)驅(qū)動,機(jī)器學(xué)習(xí)的方法獲取。比如,知識圖譜是一種高質(zhì)量的結(jié)構(gòu)化數(shù)據(jù),可以直接提供給智能系統(tǒng)作為一種 “生來具有的” 資源使用。

人工智能需要怎樣的計(jì)算理論

人工智能的未來發(fā)展同時(shí)也需要更強(qiáng)大的機(jī)器學(xué)習(xí)理論指導(dǎo)。用傳統(tǒng)的泛化上界解釋深度學(xué)習(xí)現(xiàn)象已經(jīng)明顯遇到了困難。深度學(xué)習(xí)及腦啟發(fā)計(jì)算的現(xiàn)象通常是非常復(fù)雜的。我們認(rèn)為,應(yīng)該從信息、數(shù)據(jù)、模型等幾個(gè)角度出發(fā)建立新的深度學(xué)習(xí)及腦啟發(fā)計(jì)算理論。

具體地應(yīng)該考慮以下問題。學(xué)習(xí)和推理過程中信息是如何流動的?數(shù)據(jù)中存在怎樣的內(nèi)在結(jié)構(gòu)?模型有怎樣的函數(shù)表示能力?最近的一些研究在這些方向取得了一定成果,值得大家關(guān)注。這里進(jìn)行一個(gè)簡單總結(jié),也期待出現(xiàn)更完整全面的理論。也建議閱讀馬毅等最近的文章[8]。

信息瓶頸理論

機(jī)器學(xué)習(xí)和數(shù)據(jù)壓縮是一枚硬幣的兩面。無監(jiān)督學(xué)習(xí)的目標(biāo)是給定數(shù)據(jù) X 發(fā)現(xiàn)其內(nèi)在結(jié)構(gòu) X'。數(shù)據(jù)壓縮是將數(shù)據(jù) X 進(jìn)行壓縮得到表示 X',并且能從表示 X'還原原始數(shù)據(jù) X。兩者是相互對應(yīng)的,可以認(rèn)為數(shù)據(jù)壓縮得到的表示 X'就是無監(jiān)督學(xué)習(xí)要得到的內(nèi)在結(jié)構(gòu) X'。監(jiān)督學(xué)習(xí)的目標(biāo)是學(xué)習(xí)從輸入數(shù)據(jù) X 到輸出 Y 的映射。Tishby 等提出的信息瓶頸理論從數(shù)據(jù)壓縮的角度解釋監(jiān)督學(xué)習(xí)。將數(shù)據(jù) X 進(jìn)行充分的壓縮得到表示 X',使得表示 X'對輸出 Y 有充分準(zhǔn)確的預(yù)測,將兩者分別用互信息表示,進(jìn)行以下優(yōu)化,最小化 X 和 X'之間的互信息,同時(shí)最大化 Y 和 X'之間的互信息,就對應(yīng)著監(jiān)督學(xué)習(xí)。這時(shí)表示 X'是對預(yù)測有用的特征,稱作信息瓶頸。

35c67e20-7524-11ed-8abf-dac502259ad0.png

35d71e7e-7524-11ed-8abf-dac502259ad0.png

圖 11 信息瓶頸理論解釋神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)

Tishby 等使用信息瓶頸理論對神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)的過程進(jìn)行了分析,得到了一些有意思的分析結(jié)果[9]。考慮前饋神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)和推理中的信息流動。假設(shè)輸入 X 和理想的輸出 Y 的聯(lián)合概率分布已知(理論上假設(shè)是已知的,對學(xué)習(xí)算法來說是未知的)。前饋神經(jīng)網(wǎng)絡(luò)的輸入是 X,輸出是35e46098-7524-11ed-8abf-dac502259ad0.png。前饋神經(jīng)網(wǎng)絡(luò)每層由一個(gè)隨機(jī)變量35f10dac-7524-11ed-8abf-dac502259ad0.png表示。如圖 11 所示,從輸入層 X 到隱層35f10dac-7524-11ed-8abf-dac502259ad0.png,再從隱層35f10dac-7524-11ed-8abf-dac502259ad0.png到輸出層361e5118-7524-11ed-8abf-dac502259ad0.png,構(gòu)成一個(gè)馬爾可夫鏈,可以由有向圖表示。輸入 X 和理想輸出 Y 之間的關(guān)系由無向圖表示。前饋神經(jīng)網(wǎng)絡(luò)預(yù)測時(shí)要保留輸入 X 的信息,互信息?362b3bee-7524-11ed-8abf-dac502259ad0.png?減少或不變。滿足數(shù)據(jù)處理不等式,當(dāng)且僅當(dāng)處理后是充分統(tǒng)計(jì)量時(shí)互信息不變。同時(shí)要對理想輸出 Y 有預(yù)測能力,使得互信息363aafc0-7524-11ed-8abf-dac502259ad0.png盡量保持不變。信息瓶頸理論,認(rèn)為學(xué)習(xí)的過程就是對輸入 X 互信息減少,對理想輸出 Y 互信息保持不變的神經(jīng)網(wǎng)路參數(shù)調(diào)節(jié)過程。每一層兼顧對輸入的壓縮和對輸出的預(yù)測作用,認(rèn)為每一層存在著對輸入的 encoder 和對輸出的 decoder。

模擬實(shí)驗(yàn)中(假設(shè)輸入 X 和輸出 Y 已知),用交叉熵和 SGD 訓(xùn)練一個(gè) 5 層的前饋神經(jīng)網(wǎng)絡(luò),得到學(xué)習(xí)過程中神經(jīng)網(wǎng)絡(luò)每一層的兩個(gè)互信息的值,將其畫在圖 12 中,得到信息平面。橫軸和縱軸分別表示互信息3647a70c-7524-11ed-8abf-dac502259ad0.png。圖中將學(xué)習(xí)過程中得到的各個(gè)神經(jīng)網(wǎng)絡(luò)的每一層的互信息連成一條線。理想情況學(xué)習(xí)結(jié)束時(shí)得到的神經(jīng)網(wǎng)絡(luò),各層的縱軸表示的互信息不變,各層橫軸表示的互信息隨著層級的增加而減少。就是圖中最上面的一條線。模擬實(shí)驗(yàn)發(fā)現(xiàn),神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)分兩階段,前 300 左右的 epoch 在學(xué)如何預(yù)測(初步的預(yù)測),學(xué)習(xí)比較快,之后到 10000epoch 的學(xué)習(xí)在學(xué)習(xí)如何壓縮,學(xué)習(xí)比較慢,大部分時(shí)間學(xué)壓縮。

3656cdfe-7524-11ed-8abf-dac502259ad0.png

圖 12 信息平面分析神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)過程

數(shù)據(jù)流形假說

學(xué)習(xí)中的數(shù)據(jù)的內(nèi)在結(jié)構(gòu)也是需要考慮的。馬毅等的工作中,假設(shè)高維數(shù)據(jù)存在于低維空間的流形上,更具體地,多個(gè)流形的混合體[10]。認(rèn)為聚類和分類學(xué)習(xí)是對數(shù)據(jù)通過深度神經(jīng)網(wǎng)絡(luò)的非線性變換進(jìn)行壓縮。將流形混合體上的數(shù)據(jù)從高維空間映射到低維線性空間,在低維線性空間進(jìn)行聚類或分類。低維線性空間中,類內(nèi)樣本相近,類外樣本相遠(yuǎn)(見圖 13)。

367cebba-7524-11ed-8abf-dac502259ad0.png

圖13數(shù)據(jù)處在高維空間的流形上,學(xué)習(xí)是對數(shù)據(jù)的壓縮

馬毅等提出了機(jī)器學(xué)習(xí)的壓縮比最大原理 MCR2(maximal coding rate reduction)[10]。

3697e532-7524-11ed-8abf-dac502259ad0.png

考慮分類問題,假設(shè)輸入數(shù)據(jù) X 中的同類樣本在同一個(gè)流形上。輸入數(shù)據(jù) X 通過神經(jīng)網(wǎng)絡(luò)36ae0f6a-7524-11ed-8abf-dac502259ad0.png被影射為表示?Z。R 是樣本表示?Z?的(平均)編碼長度,36bccc9e-7524-11ed-8abf-dac502259ad0.png是樣本表示?Z?在一個(gè)劃分36cd508c-7524-11ed-8abf-dac502259ad0.png下分類后的(平均)編碼長度,36db36a2-7524-11ed-8abf-dac502259ad0.png是編碼精度。壓縮比最大原理,認(rèn)為壓縮比越大,即編碼長度減少越大,分類的結(jié)果就越好。學(xué)習(xí)就是要找到壓縮比最大的神經(jīng)網(wǎng)絡(luò)。理論證明,在一定條件下,壓縮比最大的分類是將同類樣本放到同一個(gè)子空間里的分類,而且同類樣本在子空間均質(zhì)(isotropic)分布,各個(gè)類的子空間正交。MCR2 是學(xué)習(xí)的指導(dǎo)原理,也可以用于解釋學(xué)習(xí)的現(xiàn)象。學(xué)習(xí)理論不僅需要考慮數(shù)據(jù)壓縮,而且需要考慮數(shù)據(jù)內(nèi)在結(jié)構(gòu),MCR2 是一個(gè)很好的例子。

Transformer 的模型

最近對 Transformer 模型的表示能力分析有一些重要的結(jié)論。Transformer 模型有幾個(gè)重要構(gòu)成要素,首先通過注意力包括自注意力機(jī)制實(shí)現(xiàn)輸入表示的組合。文本、圖像、語音數(shù)據(jù)都是具有組合性的,也就是說,整體的表示由局部的表示組合而成。注意力的計(jì)算實(shí)際是一種查詢,是 key-value store 符號查詢在向量查詢上的擴(kuò)展。向量是 one-hot vector 時(shí)注意力就等價(jià)于 key-value store 查詢。這樣做的一個(gè)優(yōu)點(diǎn)是,用固定的參數(shù)量處理可變的輸入。人的類推推理也可以認(rèn)為是一種相似度計(jì)算,注意力機(jī)制是類推推理的一個(gè)合理且有效的實(shí)現(xiàn)。注意力本質(zhì)是線性變換(不考慮其中的 softmax 計(jì)算),在其基礎(chǔ)上的 FFN 又實(shí)現(xiàn)了非線性變換。

最近 Dong 等的理論研究發(fā)現(xiàn),Transformer 中的殘差連接實(shí)際起著非常重要的作用[11]。殘差連接實(shí)現(xiàn)了深度不同的各種注意力網(wǎng)絡(luò)加上非線性變換的集成(見圖 14)。理論證明,如果只有注意力,而沒有殘差連接或者前饋神經(jīng)網(wǎng)絡(luò),Transformer 學(xué)到的表示就會變成是秩為 1 的矩陣,也就是每個(gè)輸入 token 的表示趨于相同。以往的實(shí)驗(yàn)也證明 position embedding 如果沒有殘差連接也不能傳到 Transformer 的高層。

3704c1e8-7524-11ed-8abf-dac502259ad0.png

圖 14 Transformer 實(shí)際是自注意力網(wǎng)絡(luò)的集成,自注意力網(wǎng)絡(luò)中通過殘差連接形成了許多路徑

總結(jié)

本文的主要觀點(diǎn)如下。

深度學(xué)習(xí)的大模型、大數(shù)據(jù)和大算力模式繼續(xù)取得成果,沿著這個(gè)方向還有很大的發(fā)展空間。

字節(jié)跳動人工智能實(shí)驗(yàn)室在進(jìn)行創(chuàng)新工作,推動領(lǐng)域的發(fā)展,在深度學(xué)習(xí)和應(yīng)用方面做出了業(yè)界領(lǐng)先的成果。

另一方面深度學(xué)習(xí)的局限也已凸顯,樣本效率和能源效率低下,邏輯推理能力缺乏。整體缺少理論指導(dǎo)。

下一代的人工智能更應(yīng)該是從人腦計(jì)算得到啟發(fā)的,腦啟發(fā)計(jì)算是未來的發(fā)展方向。

腦啟發(fā)計(jì)算是指以現(xiàn)在的深度學(xué)習(xí)等機(jī)器學(xué)習(xí)為主體,在其基礎(chǔ)上(主要在功能層面)借鑒人腦的計(jì)算機(jī)制,構(gòu)成的全新的智能計(jì)算范式。

腦啟發(fā)計(jì)算、深度學(xué)習(xí)需要強(qiáng)大的理論支撐,從信息流動、數(shù)據(jù)內(nèi)在結(jié)構(gòu)、模型表示能力等多方面的研究非常重要。

馮 · 諾伊曼對人腦和計(jì)算機(jī)研究的一個(gè)假設(shè)是智能可以還原為計(jì)算。人腦的計(jì)算機(jī)制是極其復(fù)雜的。所以,人工智能需要借鑒人腦,才能構(gòu)建像人一樣智能的計(jì)算機(jī)系統(tǒng)。本文所說的腦啟發(fā)計(jì)算應(yīng)該是邁向人工智能理想的一個(gè)新的范式。在這個(gè)過程中,也需要有對應(yīng)的智能計(jì)算理論作為基礎(chǔ)。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4711

    瀏覽量

    95446
  • 人工智能
    +關(guān)注

    關(guān)注

    1807

    文章

    49035

    瀏覽量

    249783
  • 計(jì)算機(jī)視覺
    +關(guān)注

    關(guān)注

    9

    文章

    1709

    瀏覽量

    46791

原文標(biāo)題:人工智能需要新的范式和理論

文章出處:【微信號:AI智勝未來,微信公眾號:AI智勝未來】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    最新人工智能硬件培訓(xùn)AI 基礎(chǔ)入門學(xué)習(xí)課程參考2025版(大模型篇)

    人工智能大模型重塑教育與社會發(fā)展的當(dāng)下,無論是探索未來職業(yè)方向,還是更新技術(shù)儲備,掌握大模型知識都已成為新時(shí)代的必修課。從職場上輔助工作的智能助手,到課堂用于學(xué)術(shù)研究的智能工具,大模型正在工作生活
    發(fā)表于 07-04 11:10

    維智科技出席人工智能賦能能源智造升級專題分享會

    近日,維智科技創(chuàng)始人、時(shí)空人工智能領(lǐng)域?qū)<姨贞J博士受邀出席「人工智能賦能能源智造升級專題分享會」,以《時(shí)空人工智能驅(qū)動空間認(rèn)知范式轉(zhuǎn)變與產(chǎn)業(yè)實(shí)踐》為主題發(fā)表核心演講,為現(xiàn)場企業(yè)家、專家
    的頭像 發(fā)表于 06-18 15:54 ?399次閱讀

    2025年人工智能在工程領(lǐng)域的應(yīng)用趨勢

    人工智能在重塑工程范式方面發(fā)揮著關(guān)鍵作用,它提供的工具和方法可提高各個(gè)領(lǐng)域的精度、效率和適應(yīng)性。想要在人工智能競賽中保持領(lǐng)先的工程領(lǐng)導(dǎo)者應(yīng)該關(guān)注四個(gè)關(guān)鍵領(lǐng)域的進(jìn)步:生成式人工智能、驗(yàn)證
    的頭像 發(fā)表于 12-27 15:40 ?1684次閱讀

    人工智能發(fā)展需要新的芯片技術(shù)

    人工智能的繁榮發(fā)展需要新的芯片技術(shù)。 ? 1997年,IBM的“深藍(lán)”超級計(jì)算機(jī)打敗了國際象棋世界冠軍加里?卡斯帕羅夫。這是超級計(jì)算機(jī)技術(shù)的一次突破性展示,也首次讓人們看到了高性能計(jì)算有一天可能超越
    的頭像 發(fā)表于 12-07 09:49 ?995次閱讀
    <b class='flag-5'>人工智能</b>發(fā)展<b class='flag-5'>需要</b>新的芯片技術(shù)

    嵌入式和人工智能究竟是什么關(guān)系?

    應(yīng)用場景。例如,在智能家居領(lǐng)域,嵌入式系統(tǒng)可以控制各種智能設(shè)備,如智能燈泡、智能空調(diào)等,而人工智能則可以實(shí)現(xiàn)對這些設(shè)備的
    發(fā)表于 11-14 16:39

    《AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新》第6章人AI與能源科學(xué)讀后感

    和國際合作等多個(gè)層面。這些內(nèi)容讓我更加認(rèn)識到,在推動人工智能與能源科學(xué)融合的過程中,需要不斷探索和創(chuàng)新,以應(yīng)對各種挑戰(zhàn)和機(jī)遇。 最后,通過閱讀這一章,我深刻感受到人工智能對于能源科學(xué)的重要性。
    發(fā)表于 10-14 09:27

    AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新》第4章-AI與生命科學(xué)讀后感

    很幸運(yùn)社區(qū)給我一個(gè)閱讀此書的機(jī)會,感謝平臺。 《AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新》第4章關(guān)于AI與生命科學(xué)的部分,為我們揭示了人工智能技術(shù)在生命科學(xué)領(lǐng)域中的廣泛應(yīng)用和深遠(yuǎn)影響。在
    發(fā)表于 10-14 09:21

    《AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新》第二章AI for Science的技術(shù)支撐學(xué)習(xí)心得

    非常高興本周末收到一本新書,也非常感謝平臺提供閱讀機(jī)會。 這是一本挺好的書,包裝精美,內(nèi)容詳實(shí),干活滿滿。 關(guān)于《AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新》第二章“AI
    發(fā)表于 10-14 09:16

    《AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新》第一章人工智能驅(qū)動的科學(xué)創(chuàng)新學(xué)習(xí)心得

    的效率,還為科學(xué)研究提供了前所未有的洞察力和精確度。例如,在生物學(xué)領(lǐng)域,AI能夠幫助科學(xué)家快速識別基因序列中的關(guān)鍵變異,加速新藥研發(fā)進(jìn)程。 2. 跨學(xué)科融合的新范式 書中強(qiáng)調(diào),人工智能的應(yīng)用促進(jìn)了多個(gè)
    發(fā)表于 10-14 09:12

    risc-v在人工智能圖像處理應(yīng)用前景分析

    滿足人工智能圖像處理中對于高性能、低功耗和特定功能的需求。 低功耗 : 在人工智能圖像處理中,低功耗是一個(gè)重要的考量因素。RISC-V架構(gòu)的設(shè)計(jì)使其在處理任務(wù)時(shí)能夠保持較低的功耗水平,這對于需要
    發(fā)表于 09-28 11:00

    人工智能ai 數(shù)電 模電 模擬集成電路原理 電路分析

    人工智能ai 數(shù)電 模電 模擬集成電路原理 電路分析 想問下哪些比較容易學(xué) 不過好像都是要學(xué)的
    發(fā)表于 09-26 15:24

    人工智能ai4s試讀申請

    目前人工智能在繪畫對話等大模型領(lǐng)域應(yīng)用廣闊,ai4s也是方興未艾。但是如何有效利用ai4s工具助力科研是個(gè)需要研究的課題,本書對ai4s基本原理和原則,方法進(jìn)行描訴,有利于總結(jié)經(jīng)驗(yàn),擬按照要求準(zhǔn)備相關(guān)體會材料??茨芊裼兄谌腴T和提高ss
    發(fā)表于 09-09 15:36

    名單公布!【書籍評測活動NO.44】AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新

    大力發(fā)展AI for Science的原因。 第2章從科學(xué)研究底層的理論模式與主要困境,以及人工智能三要素(數(shù)據(jù)、算法、算力)出發(fā),對AI for Science的技術(shù)支撐進(jìn)行解讀。 第3章介紹了在
    發(fā)表于 09-09 13:54

    報(bào)名開啟!深圳(國際)通用人工智能大會將啟幕,國內(nèi)外大咖齊聚話AI

    8月28日至30日,2024深圳(國際)通用人工智能大會暨深圳(國際)通用人工智能產(chǎn)業(yè)博覽會將在深圳國際會展中心(寶安)舉辦。大會以“魅力AI·無限未來”為主題,致力于打造全球通用人工智能領(lǐng)域集產(chǎn)品
    發(fā)表于 08-22 15:00

    FPGA在人工智能中的應(yīng)用有哪些?

    FPGA(現(xiàn)場可編程門陣列)在人工智能領(lǐng)域的應(yīng)用非常廣泛,主要體現(xiàn)在以下幾個(gè)方面: 一、深度學(xué)習(xí)加速 訓(xùn)練和推理過程加速:FPGA可以用來加速深度學(xué)習(xí)的訓(xùn)練和推理過程。由于其高并行性和低延遲特性
    發(fā)表于 07-29 17:05