一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

In-context learning如何工作?斯坦福學者用貝葉斯方法解開其奧秘

深度學習自然語言處理 ? 來源:機器翻譯學堂 ? 2023-04-11 14:07 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

引言

去年底,OpenAI研發(fā)的ChatGPT一經(jīng)面世,在引起了大家驚訝的同時,也紛紛引發(fā)大家的思考,到底ChatGPT是如何研發(fā)的?用到了什么技術(shù)?如何才能充分挖掘ChatGPT潛能?ChatGPT背后的核心技術(shù),大語言模型毫無疑問是最重要的之一。同樣由OpenAI研發(fā)的大模型GPT-3,其參數(shù)量達到的1750億。如此大規(guī)模的模型,不僅研發(fā)成本讓許多機構(gòu)望而卻步,其背后的運行原理也是讓很多科研人員“一頭霧水”。大量的工作在探究,語言模型是怎樣獲得如何驚人的“語言理解能力”的?其中,In-context learning就是一種在大規(guī)模語言模型中展現(xiàn)出來的特殊能力,通過給模型“展示”幾個相關(guān)的例子,模型便可以“學會”這個任務(wù)要做的事情,并給出測試樣例的答案??墒?,模型是怎么獲得這個特殊“技能”的呢?斯坦福大學的Sang Michael Xie等人認為,in-context learning可以看成是一個貝葉斯推理過程,其利用提示的四個組成部分(輸入、輸出、格式和輸入輸出映射)來獲得隱含在語言模型中的潛在概念,而潛在概念是語言模型在訓練過程中學到的關(guān)于某類任務(wù)的特定“知識”。相關(guān)工作發(fā)表在2022年的ICLR會議上,作者等人還寫了一篇博客來進行詳細介紹。下面跟著譯者一起來了解in-context learning的奧秘吧!

博客正文

在這篇文章中,我們?yōu)镚PT-3等大規(guī)模語言模型中的in-context learning提供了一個貝葉斯推理框架,并展示了我們框架的實驗證據(jù),突出了與傳統(tǒng)監(jiān)督學習的區(qū)別。這篇博文主要借鑒了來自論文An Explanation of In-context Learning as Implicit Bayesian Inference的in-context learning理論框架,以及來自Rethinking the Role of Demonstrations: What Makes In-Context Learning Work? 的實驗。

In-context learning是大規(guī)模語言模型中一種神秘的涌現(xiàn)行為,其中語言模型僅通過調(diào)節(jié)輸入輸出示例來完成任務(wù),而無需優(yōu)化任何參數(shù)。在這篇文章中,我們提供了一個貝葉斯推理框架,將in-context learning理解為“定位”語言模型從預訓練數(shù)據(jù)中獲取到的潛在“概念”。這表明提示的所有組成部分(輸入、輸出、格式和輸入-輸出映射)都可以提供用來推斷潛在概念的信息。我們就此框架進行相關(guān)實驗,在這些實驗的結(jié)果中,當提供具有隨機輸出的訓練示例時,in-context learning仍然有效。雖然隨機的輸出削弱了傳統(tǒng)的監(jiān)督學習算法,但它只是消除了貝葉斯推理的一種信息來源(輸入-輸出映射)。最后,我們提出了對于未來工作存在的差距和努力方向,并邀請社區(qū)與我們一起進一步了解in-context learning。

目錄

一、In-context learning的奧秘

二、一種in-context learning框架

三、實驗證據(jù)

四、擴展

五、總結(jié)

一、In-context learning的奧秘

大規(guī)模語言模型,例如GPT-3[1]在互聯(lián)網(wǎng)規(guī)模的文本數(shù)據(jù)上進行訓練,以預測給定前文文本的下一個標記。這個簡單的目標與大規(guī)模數(shù)據(jù)集和模型相結(jié)合,產(chǎn)生了一個非常靈活的語言模型,它可以“讀取”任何文本輸入,并以此為條件“書寫”可能出現(xiàn)在輸入之后的文本。雖然訓練過程既簡單又通用,但GPT-3論文發(fā)現(xiàn)“大規(guī)?!睍е绿貏e有趣的、意想不到的行為,稱為in-context learning。什么是in-context learning?In-context learning最初是在 GPT-3 論文中開始普及的,是一種僅給出幾個示例就可以讓語言模型學習到相關(guān)任務(wù)的方法。在in-context learning里,我們給語言模型一個“提示(prompt)”,該提示是一個由輸入輸出對組成的列表,這些輸入輸出對用來描述一個任務(wù)。在提示的末尾,有一個測試輸入,并讓語言模型僅通過以提示為條件來預測下一個標記。例如,要正確回答下圖所示的兩個提示,模型需要讀取訓練示例以弄清楚輸入分布(財經(jīng)或普通新聞)、輸出分布(正向情感/負向情感或某個主題)、輸入-輸出映射(情感分類或主題分類)和格式。

9275a694-d827-11ed-bfe3-dac502259ad0.gif

In-context learning能做什么?在許多NLP基準測試中,in-context learning與使用更多標記數(shù)據(jù)訓練的模型相比具有相當?shù)男阅?,并且在LAMBADA(常識句子完成)和 TriviaQA(問答)上是最出色的。更令人興奮的是,in-context learning使人們能夠在短短幾個小時內(nèi)啟動一系列應(yīng)用程序,包括根據(jù)自然語言描述編寫代碼、幫助設(shè)計應(yīng)用程序模型以及概括電子表格功能等。

In-context learning允許用戶為新用例快速構(gòu)建模型,而無需為每個任務(wù)微調(diào)和存儲新參數(shù)。它通常只需要很少的訓練示例就可以使模型正常工作,而且即使對于非專家來說,也可以通過直觀的自然語言來進行交互。

為什么in-context learning這么神奇?In-context learning不同于傳統(tǒng)的機器學習,因為它沒有對任何參數(shù)進行優(yōu)化。然而,這并不是獨一無二的——元學習(meta-learning)方法已經(jīng)訓練出了從示例中學習的模型。神奇之處在于語言模型沒有進行過從示例中學習的訓練,它在預訓練中做的事是預測下一個標記。正因為如此,語言模型和in-context learning似乎并不一致。

這看起來很神奇,那In-context learning是怎么起作用的呢?

二、一種In-context learning框架

我們?nèi)绾尾拍芨玫乩斫鈏n-context learning?首先要注意的是,像GPT-3這樣的大規(guī)模語言模型已經(jīng)在具有廣泛主題和格式的大量文本上進行了訓練,這些文本包括維基百科頁面、學術(shù)論文、Reddit帖子以及莎士比亞的作品。我們假設(shè)在這些文本上進行訓練使得語言模型可以對多種不同的概念進行建模。

Xie等人[2]提出了一個框架,即語言模型使用in-context learning提示來“定位”訓練中學習到的概念,從而完成in-context learning任務(wù)。如下圖所示,在我們的框架中,語言模型使用訓練示例在內(nèi)部確定任務(wù)是情感分析(左)或主題分類(右),并將相同的映射應(yīng)用于測試輸入。

92af44da-d827-11ed-bfe3-dac502259ad0.gif

什么是“概念”?我們可以將概念視為包含各種文檔級統(tǒng)計信息的潛在變量。例如,“新聞主題”的概念描述了詞匯的分布(新聞及新聞主題)、格式(新聞文章的寫作方式)、新聞與新聞主題之間的關(guān)系以及詞匯之間的其他語義和句法關(guān)系。通常,概念可能是許多潛在變量的組合,這些潛在變量指定了文檔語義和語法的不同方面,但在這里我們通過將它們?nèi)靠闯梢粋€概念變量來簡化。

語言模型如何在預訓練期間學會進行貝葉斯推理?

我們證明,在具有潛在概念結(jié)構(gòu)的偽數(shù)據(jù)上訓練(預測下一個標記)的語言模型可以學習進行in-context learning。我們假設(shè)在真實的預訓練數(shù)據(jù)中會發(fā)生類似的效果,因為文本文檔天然具有長期連貫性:同一文檔中的句子/段落/表格行傾向于共享底層語義信息(例如,主題)和格式(例如,問題和答案之間交替的問答頁面)。在我們的框架中,文檔級潛在概念創(chuàng)造了長期連貫性,并且在預訓練期間對這種連貫性進行建模來推斷潛在概念:

1、預訓練:為了在預訓練期間預測下一個標記,語言模型必須使用來自先前句子的證據(jù)推斷(“定位”)文檔的潛在概念。

2、In-context learning:如果語言模型使用提示中的in-context示例推斷提示概念(提示中的示例所共享的潛在概念),則發(fā)生in-context learning!

In-context learning的貝葉斯推理觀點

在我們討論貝葉斯推理觀點之前,讓我們設(shè)置好in-context learning的設(shè)定。

預訓練分布(p):我們對預訓練文檔結(jié)構(gòu)的主要假設(shè)是,關(guān)于文檔的生成,首先通過對潛在概念進行采樣,然后以潛在概念為條件來生成文檔。我們假設(shè)預訓練數(shù)據(jù)足夠多以及語言模型足夠大,使得語言模型完全符合預訓練分布。正因為如此,我們使用p表示語言模型下的預訓練分布和概率。

提示分布:In-context learning提示是一系列獨立同分布的訓練示例加上一個測試輸入。提示中的每個示例都可以認為是以相同提示概念為條件的序列,它描述了要學習的任務(wù)。

去“定位”學習到的概念的過程,可以看作是提示中每個示例共享的提示概念的貝葉斯推理。如果模型能夠推斷出提示概念,那么它就可以用來對測試樣例做出正確的預測。在數(shù)學上,提示為模型(p)提供了證據(jù)來銳化概念的后驗分布p(concept|prompt)。如果p(concept|prompt)集中在提示概念上,模型則有效地從提示中“學習”到了概念。

92cce882-d827-11ed-bfe3-dac502259ad0.png

理想情況下,p(concept|prompt)會集中在有更多示例的提示概念,就可以通過邊緣化來“選擇”對應(yīng)的提示概念。

提示為貝葉斯推理提供了帶有噪聲的信號

在解釋中不太符合邏輯的地方是,語言模型從in-context示例中推斷提示概念,不過提示是從提示分布中采樣的,這可能與語言模型訓練的預訓練分布非常不同。提示將獨立的訓練示例連接在一起,因此不同示例之間的轉(zhuǎn)換在語言模型以及預訓練分布下的概率非常低,并且可能在推理過程中引入噪聲。例如,連接關(guān)于不同新聞主題的獨立句子可能會產(chǎn)生不常見的文本,因為沒有一個句子具有足夠的in-context。有趣的是,正如在GPT-3中所發(fā)現(xiàn)的那樣,盡管預訓練和提示分布之間存在差異,語言模型仍然可以進行貝葉斯推理。我們證明,通過貝葉斯推理進行的in-context learning可以用一個簡化的理論設(shè)置,在預訓練數(shù)據(jù)的潛在概念結(jié)構(gòu)中出現(xiàn)。我們使用它來生成一個數(shù)據(jù)集,該數(shù)據(jù)集使得Transformer和LSTM能夠發(fā)生in-context learning。

92d7e660-d827-11ed-bfe3-dac502259ad0.gif

訓練示例提供信號:我們可以認為訓練示例為貝葉斯推理提供信號。尤其是訓練示例中的轉(zhuǎn)換(上圖中的綠色箭頭)允許語言模型推斷它們共享的潛在概念。在提示中,來自輸入分布(新聞句子之間的轉(zhuǎn)換)、輸出分布(主題詞)、格式(新聞句子的句法)和輸入-輸出映射(新聞和主題之間的關(guān)系)的轉(zhuǎn)換都為貝葉斯推理提供信號。

訓練示例之間的轉(zhuǎn)換可能是低概率的(噪聲):因為訓練示例是獨立同分布的,將它們連接在一起通常會在示例之間產(chǎn)生不流暢的低概率轉(zhuǎn)換。例如,在關(guān)于芬蘭流通收入的句子之后看到關(guān)于 NFC 冠軍賽(美式橄欖球比賽)的句子可能會令人驚訝(見上圖)。這些轉(zhuǎn)換會在推理過程中產(chǎn)生噪音,原因在于預訓練和提示分布之間的差異。

In-context learning對某些噪聲具有魯棒性:我們證明,如果信號大于噪聲,則語言模型可以成功進行in-context learning。我們將信號描述為其他概念與以提示為條件的提示概念之間的KL散度,并將噪聲描述為來自示例之間轉(zhuǎn)換的誤差項。直覺上,如果提示允許模型真正輕松地將提示概念與其他概念區(qū)分開來,那么就會有很強的信號。這也表明,在信號足夠強的情況下,其他形式的噪聲,例如刪除一種信息源(如刪除輸入輸出映射)可能是沒有問題的,特別是當提示的格式?jīng)]有改變并且輸入輸出映射信息在預訓練數(shù)據(jù)中。這不同于傳統(tǒng)的監(jiān)督學習,如果刪除輸入-輸出映射信息(如通過隨機化標簽),傳統(tǒng)的監(jiān)督學習將會失效。我們將在下一節(jié)中直接研究這種區(qū)別。

用于in-context learning的小型測試平臺(GINC數(shù)據(jù)集):為了支持該理論,我們構(gòu)建了一個預訓練數(shù)據(jù)集和具有潛在概念結(jié)構(gòu)的in-context learning測試平臺,取名為GINC。我們發(fā)現(xiàn)在GINC上進行預訓練會使Transformer和LSTM出現(xiàn)in-context learning,這表明來自預訓練數(shù)據(jù)中的結(jié)構(gòu)有非常重要的作用。消融實驗顯示,潛在的概念結(jié)構(gòu)(導致長期連貫性)對于GINC中in-context learning的出現(xiàn)至關(guān)重要[2]。

三、實驗證據(jù)

接下來,我們希望通過一組實驗為上述框架提供實驗證據(jù)。

提示中的輸入輸出對很重要

提示中不需要使用真實輸出也能獲得良好的in-context learning性能。

在Min等人的論文[3]中,我們比較了三種不同的方法:

No-examples:語言模型僅在測試輸入上計算條件概率,沒有示例。這是典型的零樣本推理,在GPT-2/GPT-3中已經(jīng)實現(xiàn)。

具有真實輸出的示例:語言模型是基于一些in-context示例和測試輸入共同去計算的。這是一種典型的in-context learning方法,默認情況下,提示中的所有輸出都是真實的。

具有隨機輸出的示例:語言模型也是基于一些in-context示例和測試輸入去共同計算的,不過,提示中的每個輸出都是從輸出集中隨機抽樣的(分類任務(wù)中的標簽;多項選擇中的一組答案選項)。

93008868-d827-11ed-bfe3-dac502259ad0.png

9314187e-d827-11ed-bfe3-dac502259ad0.png

帶有真實輸出的提示(上圖)和帶有隨機輸出的提示(下圖)

值得注意的是,“帶有隨機輸出的示例”這種方法以前從未有人嘗試過。如果標記數(shù)據(jù)的輸出是隨機的,那么典型的監(jiān)督學習將根本不起作用,因為任務(wù)不再有意義。

我們試驗了12個模型,參數(shù)大小范圍從 774M 到 175B,包括最大的GPT-3(Davinci)。模型在16個分類數(shù)據(jù)集和10個多選數(shù)據(jù)集上進行評估。

932e4bf4-d827-11ed-bfe3-dac502259ad0.png

無示例(藍色)、具有真實輸出的示例(黃色)和具有隨機輸出的示例(隨機)之間的比較;用隨機輸出替換真值輸出對性能的影響比之前想象的要小得多,而且仍然比沒有例子要好得多

當用輸出集合的隨機輸出來替換每個輸出時,in-context learning性能不會下降太多。

首先,正如預期的那樣,使用帶有真實輸出的示例明顯優(yōu)于無示例。然后,用隨機輸出替換真實輸出幾乎不會使性能下降。這意味著,與典型的監(jiān)督學習不同,真實輸出并不是獲得良好的in-context learning性能所必須需要的,這有違我們的直覺。

933ae6c0-d827-11ed-bfe3-dac502259ad0.png

in-context示例的四個不同方面:輸入輸出映射(Input-output mapping)、輸入分布(Input distribution)、輸出空間(Output space)和格式(Format)

如果正確的輸入輸出映射具有邊際效應(yīng),提示的哪些方面對于in-context learning最重要呢?

一個可能的方面是輸入分布,即示例中輸入的基礎(chǔ)分布(下圖中的紅色文本)。為了量化其影響,我們設(shè)計了一種演示變量,其中每個in-context示例都包含一個從外部語料庫中隨機抽取的輸入句子(不是來自訓練數(shù)據(jù)的輸入)。然后,我們將其性能與帶有隨機標簽的演示進行比較。直覺上,這兩個版本的演示都是不正確的輸入標簽對應(yīng)關(guān)系,區(qū)別在于是否有正確的輸入分布。

9387e574-d827-11ed-bfe3-dac502259ad0.png

輸入分布很重要:當提示中的輸入被外部語料庫(CC新聞?wù)Z料庫)的隨機輸入替換時,模型性能會顯著下降

結(jié)果表明,總體而言,以隨機句子作為輸入的模型性能顯著降低(絕對值降低高達 16%)。這表明對正確的輸入分布進行調(diào)節(jié)很重要。

93ae6744-d827-11ed-bfe3-dac502259ad0.png

輸出空間很重要:當示例中的輸出被隨機的英文一元組替換時,模型性能會顯著下降 可能影響in-context learning的另一個方面是輸出空間:任務(wù)中的輸出集(類別或答案選項)。為了量化其影響,我們設(shè)計了一種演示變量,由in-context示例組成,這些示例具有隨機配對的隨機英語一元組,這些一元組與任務(wù)的原始標簽(例如,“wave”)無關(guān)。結(jié)果表明,使用此演示時性能顯著下降(絕對值高達16%)。這表明對正確的輸出空間進行調(diào)節(jié)很重要。即使對于多項選擇任務(wù)也是如此,可能是因為它仍然具有模型使用的特定選擇分布(例如,OpenBookQA數(shù)據(jù)集中的“Bolts(螺栓)”和“Screws(螺絲)”等對象)。

93e53b98-d827-11ed-bfe3-dac502259ad0.png

與貝葉斯推理框架的聯(lián)系

語言模型不依賴提示中的輸入-輸出對應(yīng)這一事實意味著語言模型在預訓練期間可能已經(jīng)接觸到任務(wù)的輸入-輸出對應(yīng)中的某些概念,而in-context learning在它們的基礎(chǔ)上發(fā)生作用。相反,提示的其它所有組成部分(輸入分布、輸出空間和格式)都在提供信號,使模型能夠更好地推斷(“定位”)在預訓練期間學習到的概念。由于在提示中將隨機序列連接在一起,隨機輸入輸出映射仍然會增加“噪音”。盡管如此,基于我們的框架,只要仍然有足夠的信號(例如正確的輸入分布、輸出空間和格式),模型仍然會進行貝葉斯推理。當然,擁有正確的輸入輸出映射仍然可以通過提供更多依據(jù)和減少噪音來發(fā)揮作用,尤其是當輸入輸出映射并非經(jīng)常出現(xiàn)在預訓練數(shù)據(jù)中時。

在預訓練期間,in-context learning 的性能與術(shù)語頻率高度相關(guān)

Razeghi等人[4]在各種數(shù)字任務(wù)上評估GPT-J,發(fā)現(xiàn)in-context learning性能與每個示例中的術(shù)語(數(shù)字和單位)在 GPT-J的預訓練數(shù)據(jù)(The PILE)中出現(xiàn)的次數(shù)高度相關(guān)。

9405806a-d827-11ed-bfe3-dac502259ad0.png

術(shù)語頻率(x軸)和in-context learning性能(y軸)之間的相關(guān)性;從左到右:加法、乘法、提示中無任務(wù)指示的加法和提示中無任務(wù)指示的乘法;來自 Razeghi等人的數(shù)據(jù)

這在不同類型的數(shù)字任務(wù)(加法、乘法和單位轉(zhuǎn)換)和不同的k值(提示中標記示例的數(shù)量)中結(jié)論是一致的。一個有趣的現(xiàn)象是,當輸入沒有明確說明任務(wù)時也是如此——例如,不使用“問:3 乘以 4 是多少?答:12”,而是用“問:3#4是多少?答:12”。

與貝葉斯推理框架的聯(lián)系

我們將這項工作視為另一個證據(jù),表明in-context learning主要是定位在預訓練期間學習的潛在概念。特別是,如果特定實例中的術(shù)語在預訓練數(shù)據(jù)中多次出現(xiàn),則模型可能會更好地了解輸入分布。根據(jù)貝葉斯推理,這將為定位潛在概念以執(zhí)行下游任務(wù)提供更好的信號。而Razeghi等人特別關(guān)注模型對輸入分布了解程度的一個方面——特定實例的詞頻——可能存在更廣泛的變化集,例如輸入-輸出相關(guān)性的頻率、格式(或文本模式)等。

四、擴展

了解模型在“沒見過”的任務(wù)上的表現(xiàn)

我們的框架表明該模型正在“檢索”它在預訓練期間學到的概念。然而,Rong[5]在博文中表明,該模型在將運動映射到動物、將蔬菜映射到運動等(下圖)沒見過的任務(wù)上表現(xiàn)幾乎完美。此外,輸入輸出映射在這種情況下仍然很重要,因為模型從示例中學習了不自然的映射。根據(jù)經(jīng)驗,一種可能性是in-context learning行為可能會在構(gòu)造的任務(wù)中發(fā)生變化(而不是我們實驗關(guān)注的真實NLP基準測試)——這需要進一步探索。

盡管如此,如果我們將一個概念視為許多潛在變量的組合,貝葉斯推理仍然可以解釋某些形式的外推。例如,考慮一個表示語法的潛在變量和另一個表示語義的變量。貝葉斯推理可以組合推廣到新的語義-句法對,即使模型在預訓練期間沒有看到所有句對。排列、交換和復制等一般操作在預訓練期間很有用,并且可以在組合時幫助外推(例如,運動到動物案例中的標簽排列)。需要做更多的工作來模擬in-context learning如何處理沒見過的任務(wù)。

9426d09e-d827-11ed-bfe3-dac502259ad0.png

GPT-3可以成功學習的具有不尋常語義的示例合成任務(wù)

與學習閱讀任務(wù)描述的聯(lián)系

可以在提示中使用自然語言的任務(wù)描述(或說明)來執(zhí)行下游任務(wù)。例如,我們可以在前面加上“Write a summary about the given article”來描述總結(jié)或“Answer a following question about the Wikipedia article”來描述問答。在大規(guī)模、高質(zhì)量指令數(shù)據(jù)上進一步調(diào)整的語言模型被證明可以很好地執(zhí)行沒見過的任務(wù)[6][7]。根據(jù)我們的框架,我們可以通過提供明確的潛在提示概念,將“指定任務(wù)描述”理解為改進貝葉斯推理。

了解用于in-context learning的預訓練數(shù)據(jù)

雖然我們提出in-context learning來自預訓練數(shù)據(jù)中的長期連貫結(jié)構(gòu)(由于潛在的概念結(jié)構(gòu)),但需要做更多的工作來準確查明預訓練數(shù)據(jù)的哪些元素對in-context learning有最大貢獻。是否有一個關(guān)鍵的數(shù)據(jù)子集可以從中產(chǎn)生in-context learning,或者它是否是多種類型數(shù)據(jù)之間的復雜交互?最近的工作[8][9]給出了一些關(guān)于引發(fā)in-context learning行為所需的預訓練數(shù)據(jù)類型的提示。更好地理解in-context learning有助于構(gòu)建更有效的大規(guī)模預訓練數(shù)據(jù)集。

從模型架構(gòu)和訓練中捕捉效果

我們的框架僅描述了預訓練數(shù)據(jù)對in-context learning的影響,但其他方面也會產(chǎn)生影響。模型規(guī)模就是其中之一——許多論文都展示了大規(guī)模的好處[10][11][12]。結(jié)構(gòu)(例如,僅解碼器與編碼器-解碼器)和訓練目標(例如,因果語言模型與掩碼語言模型)是有可能的其它因素[13]。未來的工作可能會進一步研究in-context learning中的模型行為如何受模型規(guī)模、結(jié)構(gòu)和訓練目標的選擇的影響。

五、總結(jié)

在這篇博文中,我們提供了一個框架,其中語言模型通過使用提示去“定位”它在預訓練期間學習到的相關(guān)概念來進行in-context learning,進而完成相關(guān)任務(wù)。從理論上講,我們可以將其視為一個潛在概念以提示為條件的貝葉斯推理,這種能力來自預訓練數(shù)據(jù)中的結(jié)構(gòu)(長期連貫性)。我們在一些NLP基準測試上進行實驗,表明當提示中的輸出用隨機輸出來進行替換時,in-context learning仍然有效。雖然使用隨機輸出會增加噪聲,并破壞了輸入-輸出映射信息,但其他部分(輸入分布、輸出分布、格式)仍然為貝葉斯推理提供依據(jù)。最后,我們詳細說明了我們框架的局限性和可能的擴展,例如解釋外推到看不見的任務(wù),并結(jié)合模型架構(gòu)和優(yōu)化的影響。我們呼吁未來在理解和改進in-context learning方面開展更多工作。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 貝葉斯
    +關(guān)注

    關(guān)注

    0

    文章

    77

    瀏覽量

    12756
  • 語言模型
    +關(guān)注

    關(guān)注

    0

    文章

    561

    瀏覽量

    10772
  • 自然語言
    +關(guān)注

    關(guān)注

    1

    文章

    291

    瀏覽量

    13649

原文標題:In-context learning如何工作?斯坦福學者用貝葉斯方法解開其奧秘

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    斯坦福開發(fā)過熱自動斷電電池

    導致起火。開發(fā)電池的斯坦福教授  在斯坦福開發(fā)的新電池中,研究人員采用聚乙烯薄膜材料,薄膜上嵌入了鎳磁粉,它會形成納米級的突起。研究人員在突起部分覆蓋石墨烯導電材料,讓電流可以從表面通過。當溫度
    發(fā)表于 01-12 11:57

    關(guān)于斯坦福的CNTFET的問題

    之前下載了斯坦福2015年的CNTFET VS model,是.va的文件,不知道怎么啊,該怎么通過cadence的pspice進行仿真啊,求指點
    發(fā)表于 01-26 13:47

    常用的分類方法:樸素

    統(tǒng)計學習方法樸素
    發(fā)表于 11-05 09:24

    回收新舊 斯坦福SRS DG645 延遲發(fā)生器

    回收新舊 斯坦福SRS DG645 延遲發(fā)生器 歐陽R:*** QQ:1226365851溫馨提示:如果您找不到聯(lián)系方式,請在瀏覽器上搜索一下,旺貿(mào)通儀器儀回收工廠或個人、庫存閑置、二手儀器及附件
    發(fā)表于 07-14 10:34

    DG645 斯坦福 SRS DG645 延遲發(fā)生器 現(xiàn)金回收

    DG645 斯坦福 SRS DG645 延遲發(fā)生器 現(xiàn)金回收 歐陽R:*** QQ:1226365851溫馨提示:如果您找不到聯(lián)系方式,請在瀏覽器上搜索一下,旺貿(mào)通儀器儀回收工廠或個人、庫存閑置
    發(fā)表于 01-11 10:08

    使用PyMC3包實現(xiàn)線性回歸

    1、如何使用PyMC3包實現(xiàn)線性回歸  PyMC3(現(xiàn)在簡稱為PyMC)是一個建模包
    發(fā)表于 10-08 15:59

    基于應(yīng)變模態(tài)和方法的桿件損傷識別

    基于應(yīng)變模態(tài)和方法的桿件損傷識別 提出了一種基于空間桿系結(jié)構(gòu)應(yīng)變模態(tài)和
    發(fā)表于 10-24 15:02 ?15次下載

    基于網(wǎng)絡(luò)的軟件項目風險評估模型

    針對軟件項目面臨失敗風險的問題,提出一種新的軟件風險評估模型,采用網(wǎng)絡(luò)推理風險發(fā)生的概率,模糊語言評估風險后果與損失的方法。實踐證明
    發(fā)表于 04-10 09:35 ?24次下載

    機器學習之樸素應(yīng)用教程

    方法輸出的是某一類的概率,取值范圍在 0-1 之間,樸素在做文本分類,或者說垃圾郵件識別的時候非常有效。 樸素
    發(fā)表于 11-25 12:49 ?1462次閱讀
    機器學習之樸素<b class='flag-5'>貝</b><b class='flag-5'>葉</b><b class='flag-5'>斯</b>應(yīng)用教程

    怎樣通俗易懂地解釋網(wǎng)絡(luò)和它的應(yīng)用?

    怎樣通俗易懂地解釋網(wǎng)絡(luò)和它的應(yīng)用?詳情請看下文。網(wǎng)絡(luò)是一個
    發(fā)表于 02-02 16:09 ?4297次閱讀
    怎樣通俗易懂地解釋<b class='flag-5'>貝</b><b class='flag-5'>葉</b><b class='flag-5'>斯</b>網(wǎng)絡(luò)和它的應(yīng)用?

    基于概率的常見的分類方法--樸素

    方法輸出的是某一類的概率,取值范圍在 0-1 之間,樸素在做文本分類,或者說垃圾郵件識別的時候非常有效。
    的頭像 發(fā)表于 02-03 14:37 ?5535次閱讀
    基于概率的常見的分類<b class='flag-5'>方法</b>--樸素<b class='flag-5'>貝</b><b class='flag-5'>葉</b><b class='flag-5'>斯</b>

    統(tǒng)計的一個實踐案例讓你更快的對算法有更多的了解

    為了大家可以對算法有更多的了解,為大家整理過一篇關(guān)于算法的文章。今天將為大家介紹利用
    的頭像 發(fā)表于 07-16 17:15 ?1.5w次閱讀

    樸素分類 樸素算法的優(yōu)點

    樸素方法是在算法的基礎(chǔ)上進行了相應(yīng)的簡化
    的頭像 發(fā)表于 10-02 17:14 ?9783次閱讀

    In-context learning介紹

    隨著大規(guī)模預訓練語言模型(LLM)能力的不斷提升,in-context learning(ICL)逐漸成為自然語言處理領(lǐng)域一個新的范式。
    的頭像 發(fā)表于 04-21 10:02 ?2085次閱讀

    濾波和卡爾曼濾波的區(qū)別

    濾波和卡爾曼濾波是兩種常用的濾波方法,它們在信號處理、導航、機器人定位等領(lǐng)域有著廣泛的應(yīng)用。
    的頭像 發(fā)表于 08-01 15:25 ?1375次閱讀