相信大多數(shù)學(xué)習(xí)過(guò)人工智能課程的讀者,當(dāng)聽(tīng)到算法的時(shí)候,都會(huì)有一種既熟悉又陌生的感覺(jué)。說(shuō)算法熟悉,是因?yàn)橐宦?tīng)到這個(gè)算法,就想起那本厚厚的《人工智能——一種現(xiàn)代的方法》,想起這個(gè)算法似乎是人工智能課程考試的重點(diǎn);說(shuō)算法陌生,是因?yàn)榇蠹椰F(xiàn)在在從事人工智能相關(guān)的研究和開(kāi)發(fā)工作時(shí),似乎又很少用到這個(gè)算法,大部分時(shí)間都花在了研究數(shù)據(jù)處理和處理實(shí)驗(yàn)設(shè)置上面。而在NAACL2022上,一群來(lái)自AI2的自然語(yǔ)言處理研究者們利用算法開(kāi)發(fā)了一種新的自然語(yǔ)言生成解碼方式,還被授予了NAACL2022 Best New Method paper??雌饋?lái)已經(jīng)過(guò)時(shí)的A*算法,居然能在深度學(xué)習(xí)時(shí)代有如此的妙用,看完這篇論文,筆者情不自禁地打開(kāi)了《人工智能——一種現(xiàn)代的方法》,想看看還有什么經(jīng)典算法可以深挖一下!
論文標(biāo)題:
NEUROLOGIC A*esque Decoding: Constrained Text Generation with Lookahead Heuristics
論文鏈接:
https://arxiv.org/pdf/2112.08726.pdf
問(wèn)題背景
自然語(yǔ)言生成任務(wù)一般指給定一個(gè)輸入序列,生成一個(gè)輸出序列。目的是解出使得目標(biāo)函數(shù)最大化的序列,其中, , 而衡量對(duì)約束條件的滿足。傳統(tǒng)的Beam Search不考慮全局的最優(yōu),而是最優(yōu)化當(dāng)前步驟添加的Token.
為了達(dá)到全局最優(yōu)的效果,需要滿足如下的優(yōu)化目標(biāo)
主要方法
前向啟發(fā)算法
直接優(yōu)化全局最優(yōu)目標(biāo)面臨著搜索空間過(guò)大的問(wèn)題。而A算法可以被用來(lái)解決這個(gè)搜索問(wèn)題。A算法是一個(gè)最優(yōu)優(yōu)先的搜索算法,可以解決這樣形式的搜索問(wèn)題:
其中是迄今為止的分?jǐn)?shù),是對(duì)于未來(lái)分?jǐn)?shù)的啟發(fā)式估計(jì)。因此我們將優(yōu)化目標(biāo)修改為如下形式
同時(shí),需要限制前向搜索的長(zhǎng)度為,避免模型無(wú)限制地向前搜索
在前向生成的過(guò)程中有幾種不同的方法。方法只生成一個(gè)序列,從開(kāi)始,每次選擇概率最大的Token。方法采用插值的思想,混合方法和隨機(jī)選擇一個(gè)Token的概率分布。方法從開(kāi)始進(jìn)行步的Beam Search,選擇前個(gè)概率最大的序列, 而方法則是直接從按照概率進(jìn)行采樣。
無(wú)限制生成
在無(wú)限制生成的場(chǎng)景下,使用的優(yōu)化函數(shù)為
其中控制的是對(duì)未來(lái)估計(jì)的重視程度,類似于加權(quán)算法
受限制生成
在受限制生成任務(wù)上,作者們基于之前的工作NeuroLogic進(jìn)行改進(jìn)。首先我們簡(jiǎn)要介紹一下NeuroLogic方法。首先,將對(duì)生成文本的限制表示為合取范式。其中每一個(gè)表示一個(gè)限制條件,。NeuroLogic的優(yōu)化目標(biāo)可以寫(xiě)為
其中遠(yuǎn)大于0,用來(lái)懲罰不滿足的約束。在每一步搜索時(shí),NeuroLogic利用如下的打分函數(shù)進(jìn)行計(jì)算
其中是約束條件的前綴,這個(gè)優(yōu)化函數(shù)的目標(biāo)是獎(jiǎng)勵(lì)那些滿足約束條件的樣本。接下來(lái),作者們加入了前向啟發(fā)函數(shù)
這樣的前向啟發(fā)函數(shù)有兩個(gè)好處,如果是滿足多Token約束的一個(gè)Token,前向啟發(fā)函數(shù)包含了全部約束的分?jǐn)?shù),如果不是約束的一部分,如果被選中,這一前向策略能考慮到未來(lái)約束的分?jǐn)?shù)。
實(shí)驗(yàn)結(jié)果
無(wú)限制生成
作者們?cè)诠适律扇蝿?wù)上開(kāi)展了實(shí)驗(yàn),可以發(fā)現(xiàn)提出的方法不論是在流暢性,豐富性還是人工評(píng)估上都有著很好的表現(xiàn)。
受限制生成
在受限制生成方面,作者們?cè)诔WR(shí)生成,機(jī)器翻譯,表格到文本生成,問(wèn)題生成等任務(wù)上開(kāi)展了實(shí)驗(yàn)。在這里展示常識(shí)生成方面的結(jié)果。這一任務(wù)的主要內(nèi)容是給定一系列概念,利用全部概念生成一個(gè)合理的句子.
可以發(fā)現(xiàn),作者們提出的方法在多個(gè)指標(biāo)上都明顯超越了基線模型,取得了很好的效果。
從文章中給出的例子來(lái)看,作者們提出的方法確實(shí)有著更好的生成效果。
結(jié)語(yǔ)
本文的方法實(shí)現(xiàn)并不復(fù)雜,所用到的原理和思想也是非常經(jīng)典的人工智能算法,但卻取得了非常不錯(cuò)的性能,一舉摘得了NAACL2022的最佳方法論文。看來(lái),好的研究并不是追逐熱點(diǎn),調(diào)參魔改結(jié)構(gòu)的增量式創(chuàng)新,而是打好數(shù)學(xué)基礎(chǔ),深入地思考研究問(wèn)題,廣泛接觸各個(gè)領(lǐng)域的算法,才能在發(fā)現(xiàn)領(lǐng)域的關(guān)鍵待解決問(wèn)題時(shí)取得成果~
審核編輯 :李倩
-
算法
+關(guān)注
關(guān)注
23文章
4709瀏覽量
95358 -
人工智能
+關(guān)注
關(guān)注
1806文章
49011瀏覽量
249364 -
深度學(xué)習(xí)
+關(guān)注
關(guān)注
73文章
5561瀏覽量
122793
原文標(biāo)題:NAACL最佳方法論文 | 課本上的A*搜索算法可以提升文本生成效果!
文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
大語(yǔ)言模型的解碼策略與關(guān)鍵優(yōu)化總結(jié)

自然語(yǔ)言處理與機(jī)器學(xué)習(xí)的關(guān)系 自然語(yǔ)言處理的基本概念及步驟
語(yǔ)音識(shí)別與自然語(yǔ)言處理的關(guān)系
什么是LLM?LLM在自然語(yǔ)言處理中的應(yīng)用
ASR與自然語(yǔ)言處理的結(jié)合
卷積神經(jīng)網(wǎng)絡(luò)在自然語(yǔ)言處理中的應(yīng)用
循環(huán)神經(jīng)網(wǎng)絡(luò)在自然語(yǔ)言處理中的應(yīng)用
使用LSTM神經(jīng)網(wǎng)絡(luò)處理自然語(yǔ)言處理任務(wù)
自然語(yǔ)言處理的未來(lái)發(fā)展趨勢(shì)
自然語(yǔ)言處理與機(jī)器學(xué)習(xí)的區(qū)別
使用LLM進(jìn)行自然語(yǔ)言處理的優(yōu)缺點(diǎn)
AI大模型在自然語(yǔ)言處理中的應(yīng)用
AI智能化問(wèn)答:自然語(yǔ)言處理技術(shù)的重要應(yīng)用

評(píng)論