導(dǎo)讀
其實(shí)在自監(jiān)督學(xué)習(xí)的概念提出之前,NLP中就已經(jīng)運(yùn)用到了這一思想。
雖然計(jì)算機(jī)視覺在自監(jiān)督學(xué)習(xí)方面取得了驚人的進(jìn)展,但在很長(zhǎng)一段時(shí)間內(nèi),自監(jiān)督學(xué)習(xí)一直是NLP研究領(lǐng)域的一等公民。語(yǔ)言模型早在90年代就已經(jīng)存在,甚至在“自我監(jiān)督學(xué)習(xí)”這個(gè)術(shù)語(yǔ)出現(xiàn)之前。2013年的Word2Vec論文推廣了這一模式,在許多問題上應(yīng)用這些自監(jiān)督的方法,這個(gè)領(lǐng)域得到了迅速的發(fā)展。
這些自監(jiān)督的方法的核心是一個(gè)叫做 “pretext task” 的框架,它允許我們使用數(shù)據(jù)本身來(lái)生成標(biāo)簽,并使用監(jiān)督的方法來(lái)解決非監(jiān)督的問題。這些也被稱為“auxiliary task”或“pre-training task“。通過執(zhí)行此任務(wù)獲得的表示可以用作我們的下游監(jiān)督任務(wù)的起點(diǎn)。
在這篇文章中,我將概述研究人員在沒有明確的數(shù)據(jù)標(biāo)注的情況下從文本語(yǔ)料庫(kù)中學(xué)習(xí)表示的各種pretext tasks。本文的重點(diǎn)是任務(wù)的制定,而不是實(shí)現(xiàn)它們的架構(gòu)。
自監(jiān)督的方案
1. 預(yù)測(cè)中心詞
在這個(gè)公式中,我們?nèi)∫欢ù翱诖笮〉囊恍K文本,我們的目標(biāo)是根據(jù)周圍的單詞預(yù)測(cè)中心單詞。
例如,在下面的圖中,我們有一個(gè)大小為1的窗口,因此我們?cè)谥虚g單詞的兩邊各有一個(gè)單詞。使用這些相鄰的詞,我們需要預(yù)測(cè)中心詞。
這個(gè)方案已經(jīng)在著名的Word2Vec論文的“Continuous Bag of Words”方法中使用過。
2. 預(yù)測(cè)鄰居詞
在這個(gè)公式中,我們?nèi)∫欢ù翱诖笮〉奈谋緩埑傻目臻g,我們的目標(biāo)是在給定中心詞的情況下預(yù)測(cè)周圍的詞。
這個(gè)方案已經(jīng)在著名的Word2Vec論文的“skip-gram”方法中實(shí)現(xiàn)。
3. 相鄰句子的預(yù)測(cè)
在這個(gè)公式中,我們?nèi)∪齻€(gè)連續(xù)的句子,設(shè)計(jì)一個(gè)任務(wù),其中給定中心句,我們需要生成前一個(gè)句子和下一個(gè)句子。它類似于之前的skip-gram方法,但適用于句子而不是單詞。
這個(gè)方案已經(jīng)在Skip-Thought Vectors的論文中使用過。
4. 自回歸語(yǔ)言建模
在這個(gè)公式中,我們?nèi)〈罅课礃?biāo)注的文本,并設(shè)置一個(gè)任務(wù),根據(jù)前面的單詞預(yù)測(cè)下一個(gè)單詞。因?yàn)槲覀円呀?jīng)知道下一個(gè)來(lái)自語(yǔ)料庫(kù)的單詞是什么,所以我們不需要手工標(biāo)注的標(biāo)簽。
例如,我們可以通過預(yù)測(cè)給定前一個(gè)單詞的下一個(gè)單詞來(lái)將任務(wù)設(shè)置為從左到右的語(yǔ)言建模。
我們也可以用這個(gè)方案來(lái)通給定未來(lái)的單詞預(yù)測(cè)之前的單詞,方向是從右到左。
這個(gè)方案已經(jīng)使用在許多論文中,從n-gram模型到神經(jīng)網(wǎng)絡(luò)模型比如神經(jīng)概率語(yǔ)言模型 (GPT) 。
5. 掩碼語(yǔ)言建模
在這個(gè)方案中,文本中的單詞是隨機(jī)掩碼的,任務(wù)是預(yù)測(cè)它們。與自回歸公式相比,我們?cè)陬A(yù)測(cè)掩碼單詞時(shí)可以同時(shí)使用前一個(gè)詞和下一個(gè)詞的上下文。
這個(gè)方案已經(jīng)在BERT、RoBERTa和ALBERT的論文中使用過。與自回歸相比,在這個(gè)任務(wù)中,我們只預(yù)測(cè)了一小部分掩碼詞,因此從每句話中學(xué)到的東西更少。
6. 下一個(gè)句子預(yù)測(cè)
在這個(gè)方案中,我們?nèi)∥募谐霈F(xiàn)的兩個(gè)連續(xù)的句子,以及同一文件或不同文件中隨機(jī)出現(xiàn)的另一個(gè)句子。
然后,任務(wù)是區(qū)分兩個(gè)句子是否是連貫的。
在BERT的論文中,它被用于提高下游任務(wù)的性能,這些任務(wù)需要理解句子之間的關(guān)系,比如自然語(yǔ)言推理(NLI)和問題回答。然而,后來(lái)的研究對(duì)其有效性提出了質(zhì)疑。
7. 句子順序的預(yù)測(cè)
在這個(gè)方案中,我們從文檔中提取成對(duì)的連續(xù)句子。然后互換這兩個(gè)句子的位置,創(chuàng)建出另外一對(duì)句子。
我們的目標(biāo)是對(duì)一對(duì)句子進(jìn)行分類,看它們的順序是否正確。
在ALBERT的論文中,它被用來(lái)取代“下一個(gè)句子預(yù)測(cè)”任務(wù)。
8. 句子重排
在這個(gè)方案中,我們從語(yǔ)料庫(kù)中取出一個(gè)連續(xù)的文本,并破開的句子。然后,對(duì)句子的位置進(jìn)行隨機(jī)打亂,任務(wù)是恢復(fù)句子的原始順序。
它已經(jīng)在BART的論文中被用作預(yù)訓(xùn)練的任務(wù)之一。
9. 文檔旋轉(zhuǎn)
在這個(gè)方案中,文檔中的一個(gè)隨機(jī)token被選擇為旋轉(zhuǎn)點(diǎn)。然后,對(duì)文檔進(jìn)行旋轉(zhuǎn),使得這個(gè)token成為開始詞。任務(wù)是從這個(gè)旋轉(zhuǎn)的版本中恢復(fù)原來(lái)的句子。
它已經(jīng)在BART的論文中被用作預(yù)訓(xùn)練的任務(wù)之一。直覺上,這將訓(xùn)練模型開始識(shí)別文檔。
10. 表情符號(hào)預(yù)測(cè)
這個(gè)方案被用在了DeepMoji的論文中,并利用了我們使用表情符號(hào)來(lái)表達(dá)我們所發(fā)推文的情感這一想法。如下所示,我們可以使用推特上的表情符號(hào)作為標(biāo)簽,并制定一個(gè)監(jiān)督任務(wù),在給出文本時(shí)預(yù)測(cè)表情符號(hào)。
DeepMoji的作者們使用這個(gè)概念對(duì)一個(gè)模型進(jìn)行了12億條推文的預(yù)訓(xùn)練,然后在情緒分析、仇恨語(yǔ)言檢測(cè)和侮辱檢測(cè)等與情緒相關(guān)的下游任務(wù)上對(duì)其進(jìn)行微調(diào)。
責(zé)任編輯:lq
-
神經(jīng)網(wǎng)絡(luò)
+關(guān)注
關(guān)注
42文章
4814瀏覽量
103497 -
nlp
+關(guān)注
關(guān)注
1文章
490瀏覽量
22605
原文標(biāo)題:NLP中的自監(jiān)督表示學(xué)習(xí),全是動(dòng)圖,很過癮的
文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
機(jī)器學(xué)習(xí)異常檢測(cè)實(shí)戰(zhàn):用Isolation Forest快速構(gòu)建無(wú)標(biāo)簽異常檢測(cè)系統(tǒng)

使用MATLAB進(jìn)行無(wú)監(jiān)督學(xué)習(xí)

深度學(xué)習(xí)工作負(fù)載中GPU與LPU的主要差異

自然語(yǔ)言處理與機(jī)器學(xué)習(xí)的關(guān)系 自然語(yǔ)言處理的基本概念及步驟
Arm成功將Arm KleidiAI軟件庫(kù)集成到騰訊自研的Angel 機(jī)器學(xué)習(xí)框架
什么是LLM?LLM在自然語(yǔ)言處理中的應(yīng)用
時(shí)空引導(dǎo)下的時(shí)間序列自監(jiān)督學(xué)習(xí)框架

深度學(xué)習(xí)中RNN的優(yōu)勢(shì)與挑戰(zhàn)
NLP技術(shù)在聊天機(jī)器人中的作用
Llama 3 在自然語(yǔ)言處理中的優(yōu)勢(shì)
GPU深度學(xué)習(xí)應(yīng)用案例
AI大模型在自然語(yǔ)言處理中的應(yīng)用
【《大語(yǔ)言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)知識(shí)學(xué)習(xí)
【《大語(yǔ)言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)篇
旗晟機(jī)器人人員行為監(jiān)督AI智慧算法

評(píng)論