一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

利用算法開(kāi)發(fā)了一種新的自然語(yǔ)言生成解碼方式

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:夕小瑤的賣萌屋 ? 作者:Yimin_飯煲 ? 2022-08-02 14:44 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

相信大多數(shù)學(xué)習(xí)過(guò)人工智能課程的讀者,當(dāng)聽(tīng)到算法的時(shí)候,都會(huì)有一種既熟悉又陌生的感覺(jué)。說(shuō)算法熟悉,是因?yàn)橐宦?tīng)到這個(gè)算法,就想起那本厚厚的《人工智能——一種現(xiàn)代的方法》,想起這個(gè)算法似乎是人工智能課程考試的重點(diǎn);說(shuō)算法陌生,是因?yàn)榇蠹椰F(xiàn)在在從事人工智能相關(guān)的研究和開(kāi)發(fā)工作時(shí),似乎又很少用到這個(gè)算法,大部分時(shí)間都花在了研究數(shù)據(jù)處理和處理實(shí)驗(yàn)設(shè)置上面。而在NAACL2022上,一群來(lái)自AI2的自然語(yǔ)言處理研究者們利用算法開(kāi)發(fā)了一種新的自然語(yǔ)言生成解碼方式,還被授予了NAACL2022 Best New Method paper??雌饋?lái)已經(jīng)過(guò)時(shí)的A*算法,居然能在深度學(xué)習(xí)時(shí)代有如此的妙用,看完這篇論文,筆者情不自禁地打開(kāi)了《人工智能——一種現(xiàn)代的方法》,想看看還有什么經(jīng)典算法可以深挖一下!

論文標(biāo)題:
NEUROLOGIC A*esque Decoding: Constrained Text Generation with Lookahead Heuristics

論文鏈接:
https://arxiv.org/pdf/2112.08726.pdf

問(wèn)題背景

自然語(yǔ)言生成任務(wù)一般指給定一個(gè)輸入序列,生成一個(gè)輸出序列。目的是解出使得目標(biāo)函數(shù)最大化的序列,其中, , 而衡量對(duì)約束條件的滿足。傳統(tǒng)的Beam Search不考慮全局的最優(yōu),而是最優(yōu)化當(dāng)前步驟添加的Token.

為了達(dá)到全局最優(yōu)的效果,需要滿足如下的優(yōu)化目標(biāo)

主要方法

前向啟發(fā)算法

直接優(yōu)化全局最優(yōu)目標(biāo)面臨著搜索空間過(guò)大的問(wèn)題。而A算法可以被用來(lái)解決這個(gè)搜索問(wèn)題。A算法是一個(gè)最優(yōu)優(yōu)先的搜索算法,可以解決這樣形式的搜索問(wèn)題:

其中是迄今為止的分?jǐn)?shù),是對(duì)于未來(lái)分?jǐn)?shù)的啟發(fā)式估計(jì)。因此我們將優(yōu)化目標(biāo)修改為如下形式

同時(shí),需要限制前向搜索的長(zhǎng)度為,避免模型無(wú)限制地向前搜索

在前向生成的過(guò)程中有幾種不同的方法。方法只生成一個(gè)序列,從開(kāi)始,每次選擇概率最大的Token。方法采用插值的思想,混合方法和隨機(jī)選擇一個(gè)Token的概率分布。方法從開(kāi)始進(jìn)行步的Beam Search,選擇前個(gè)概率最大的序列, 而方法則是直接從按照概率進(jìn)行采樣。

無(wú)限制生成

在無(wú)限制生成的場(chǎng)景下,使用的優(yōu)化函數(shù)為

其中控制的是對(duì)未來(lái)估計(jì)的重視程度,類似于加權(quán)算法

受限制生成

在受限制生成任務(wù)上,作者們基于之前的工作NeuroLogic進(jìn)行改進(jìn)。首先我們簡(jiǎn)要介紹一下NeuroLogic方法。首先,將對(duì)生成文本的限制表示為合取范式。其中每一個(gè)表示一個(gè)限制條件,。NeuroLogic的優(yōu)化目標(biāo)可以寫(xiě)為

其中遠(yuǎn)大于0,用來(lái)懲罰不滿足的約束。在每一步搜索時(shí),NeuroLogic利用如下的打分函數(shù)進(jìn)行計(jì)算

其中是約束條件的前綴,這個(gè)優(yōu)化函數(shù)的目標(biāo)是獎(jiǎng)勵(lì)那些滿足約束條件的樣本。接下來(lái),作者們加入了前向啟發(fā)函數(shù)

這樣的前向啟發(fā)函數(shù)有兩個(gè)好處,如果是滿足多Token約束的一個(gè)Token,前向啟發(fā)函數(shù)包含了全部約束的分?jǐn)?shù),如果不是約束的一部分,如果被選中,這一前向策略能考慮到未來(lái)約束的分?jǐn)?shù)。

實(shí)驗(yàn)結(jié)果

無(wú)限制生成

0b4c6ef6-118e-11ed-ba43-dac502259ad0.png

作者們?cè)诠适律扇蝿?wù)上開(kāi)展了實(shí)驗(yàn),可以發(fā)現(xiàn)提出的方法不論是在流暢性,豐富性還是人工評(píng)估上都有著很好的表現(xiàn)。

受限制生成

在受限制生成方面,作者們?cè)诔WR(shí)生成,機(jī)器翻譯,表格到文本生成,問(wèn)題生成等任務(wù)上開(kāi)展了實(shí)驗(yàn)。在這里展示常識(shí)生成方面的結(jié)果。這一任務(wù)的主要內(nèi)容是給定一系列概念,利用全部概念生成一個(gè)合理的句子.

0b65b0be-118e-11ed-ba43-dac502259ad0.png

可以發(fā)現(xiàn),作者們提出的方法在多個(gè)指標(biāo)上都明顯超越了基線模型,取得了很好的效果。

0b779a5e-118e-11ed-ba43-dac502259ad0.png

從文章中給出的例子來(lái)看,作者們提出的方法確實(shí)有著更好的生成效果。

結(jié)語(yǔ)

本文的方法實(shí)現(xiàn)并不復(fù)雜,所用到的原理和思想也是非常經(jīng)典的人工智能算法,但卻取得了非常不錯(cuò)的性能,一舉摘得了NAACL2022的最佳方法論文。看來(lái),好的研究并不是追逐熱點(diǎn),調(diào)參魔改結(jié)構(gòu)的增量式創(chuàng)新,而是打好數(shù)學(xué)基礎(chǔ),深入地思考研究問(wèn)題,廣泛接觸各個(gè)領(lǐng)域的算法,才能在發(fā)現(xiàn)領(lǐng)域的關(guān)鍵待解決問(wèn)題時(shí)取得成果~

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4709

    瀏覽量

    95358
  • 人工智能
    +關(guān)注

    關(guān)注

    1806

    文章

    49011

    瀏覽量

    249364
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5561

    瀏覽量

    122793

原文標(biāo)題:NAACL最佳方法論文 | 課本上的A*搜索算法可以提升文本生成效果!

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    語(yǔ)言模型的解碼策略與關(guān)鍵優(yōu)化總結(jié)

    的技術(shù)參考。主要涵蓋貪婪解碼、束搜索、采樣技術(shù)等核心解碼方法,以及溫度參數(shù)、懲罰機(jī)制等關(guān)鍵優(yōu)化手段。大型語(yǔ)言模型的技術(shù)基礎(chǔ)大型語(yǔ)言模型是當(dāng)代自然語(yǔ)言
    的頭像 發(fā)表于 02-18 12:00 ?582次閱讀
    大<b class='flag-5'>語(yǔ)言</b>模型的<b class='flag-5'>解碼</b>策略與關(guān)鍵優(yōu)化總結(jié)

    自然語(yǔ)言處理與機(jī)器學(xué)習(xí)的關(guān)系 自然語(yǔ)言處理的基本概念及步驟

    Learning,簡(jiǎn)稱ML)是人工智能的個(gè)核心領(lǐng)域,它使計(jì)算機(jī)能夠從數(shù)據(jù)中學(xué)習(xí)并做出預(yù)測(cè)或決策。自然語(yǔ)言處理與機(jī)器學(xué)習(xí)之間有著密切的關(guān)系,因?yàn)闄C(jī)器學(xué)習(xí)提供了一種強(qiáng)大的工具,用于從大量文本數(shù)據(jù)中提取模式和知識(shí),從而提高NLP系
    的頭像 發(fā)表于 12-05 15:21 ?1981次閱讀

    語(yǔ)音識(shí)別與自然語(yǔ)言處理的關(guān)系

    在人工智能的快速發(fā)展中,語(yǔ)音識(shí)別和自然語(yǔ)言處理(NLP)成為了兩個(gè)重要的技術(shù)支柱。語(yǔ)音識(shí)別技術(shù)使得機(jī)器能夠理解人類的語(yǔ)音,而自然語(yǔ)言處理則讓機(jī)器能夠理解、解釋和生成人類語(yǔ)言。這兩項(xiàng)技術(shù)
    的頭像 發(fā)表于 11-26 09:21 ?1497次閱讀

    什么是LLM?LLM在自然語(yǔ)言處理中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,自然語(yǔ)言處理(NLP)領(lǐng)域迎來(lái)了革命性的進(jìn)步。其中,大型語(yǔ)言模型(LLM)的出現(xiàn),標(biāo)志著我們對(duì)語(yǔ)言理解能力的次飛躍。LLM通過(guò)深度學(xué)習(xí)和海量數(shù)據(jù)訓(xùn)練,使得
    的頭像 發(fā)表于 11-19 15:32 ?3643次閱讀

    ASR與自然語(yǔ)言處理的結(jié)合

    ASR(Automatic Speech Recognition,自動(dòng)語(yǔ)音識(shí)別)與自然語(yǔ)言處理(NLP)是人工智能領(lǐng)域的兩個(gè)重要分支,它們?cè)谠S多應(yīng)用中緊密結(jié)合,共同構(gòu)成了自然語(yǔ)言理解和生成的技術(shù)體系
    的頭像 發(fā)表于 11-18 15:19 ?1025次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)在自然語(yǔ)言處理中的應(yīng)用

    自然語(yǔ)言處理是人工智能領(lǐng)域的個(gè)重要分支,它致力于使計(jì)算機(jī)能夠理解、解釋和生成人類語(yǔ)言。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,卷積神經(jīng)網(wǎng)絡(luò)(CNNs)作為一種
    的頭像 發(fā)表于 11-15 14:58 ?803次閱讀

    循環(huán)神經(jīng)網(wǎng)絡(luò)在自然語(yǔ)言處理中的應(yīng)用

    自然語(yǔ)言處理(NLP)是人工智能領(lǐng)域的個(gè)重要分支,它致力于使計(jì)算機(jī)能夠理解、解釋和生成人類語(yǔ)言。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)因其在處理序列數(shù)據(jù)方面的優(yōu)勢(shì)而在NLP中
    的頭像 發(fā)表于 11-15 09:41 ?813次閱讀

    使用LSTM神經(jīng)網(wǎng)絡(luò)處理自然語(yǔ)言處理任務(wù)

    自然語(yǔ)言處理(NLP)是人工智能領(lǐng)域的個(gè)重要分支,它旨在使計(jì)算機(jī)能夠理解、解釋和生成人類語(yǔ)言。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,特別是循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)及其變體——長(zhǎng)短期記憶(LSTM)網(wǎng)
    的頭像 發(fā)表于 11-13 09:56 ?1158次閱讀

    自然語(yǔ)言處理的未來(lái)發(fā)展趨勢(shì)

    隨著技術(shù)的進(jìn)步,自然語(yǔ)言處理(NLP)已經(jīng)成為人工智能領(lǐng)域的個(gè)重要分支。NLP的目標(biāo)是使計(jì)算機(jī)能夠理解、解釋和生成人類語(yǔ)言,這不僅涉及到語(yǔ)言
    的頭像 發(fā)表于 11-11 10:37 ?1726次閱讀

    自然語(yǔ)言處理與機(jī)器學(xué)習(xí)的區(qū)別

    是計(jì)算機(jī)科學(xué)、人工智能和語(yǔ)言學(xué)領(lǐng)域的分支,它致力于使計(jì)算機(jī)能夠理解、解釋和生成人類語(yǔ)言。NLP的目標(biāo)是縮小人類語(yǔ)言和計(jì)算機(jī)之間的差距,使計(jì)算機(jī)能夠處理和
    的頭像 發(fā)表于 11-11 10:35 ?1542次閱讀

    使用LLM進(jìn)行自然語(yǔ)言處理的優(yōu)缺點(diǎn)

    自然語(yǔ)言處理(NLP)是人工智能和語(yǔ)言學(xué)領(lǐng)域的個(gè)分支,它致力于使計(jì)算機(jī)能夠理解、解釋和生成人類語(yǔ)言。大型
    的頭像 發(fā)表于 11-08 09:27 ?2443次閱讀

    AI大模型在自然語(yǔ)言處理中的應(yīng)用

    AI大模型在自然語(yǔ)言處理(NLP)中的應(yīng)用廣泛且深入,其強(qiáng)大的語(yǔ)義理解和生成能力為NLP任務(wù)帶來(lái)了顯著的性能提升。以下是對(duì)AI大模型在NLP中應(yīng)用的介紹: 、核心應(yīng)用 文本生成 AI
    的頭像 發(fā)表于 10-23 14:38 ?1539次閱讀

    AI智能化問(wèn)答:自然語(yǔ)言處理技術(shù)的重要應(yīng)用

    自然語(yǔ)言處理(NLP)是人工智能領(lǐng)域的個(gè)重要分支,它致力于使計(jì)算機(jī)能夠理解、解釋和生成人類語(yǔ)言。問(wèn)答系統(tǒng)作為NLP的個(gè)重要應(yīng)用,能夠精確
    的頭像 發(fā)表于 10-12 10:58 ?1094次閱讀
    AI智能化問(wèn)答:<b class='flag-5'>自然語(yǔ)言</b>處理技術(shù)的重要應(yīng)用

    【《大語(yǔ)言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)知識(shí)學(xué)習(xí)

    的表達(dá)方式生成能力。通過(guò)預(yù)測(cè)文本中缺失的部分或下個(gè)詞,模型逐漸掌握語(yǔ)言的規(guī)律和特征。 常用的模型結(jié)構(gòu) Transformer架構(gòu):大語(yǔ)言
    發(fā)表于 08-02 11:03

    【《大語(yǔ)言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)篇

    章節(jié)介紹了機(jī)器學(xué)習(xí),從方法論上來(lái)看,機(jī)器學(xué)習(xí)屬于歸納推理;從開(kāi)發(fā)設(shè)計(jì)方式來(lái)看,機(jī)器學(xué)習(xí)屬于自動(dòng)編程。我們平時(shí)使用各種計(jì)算機(jī)高級(jí)語(yǔ)言編寫(xiě)程序代碼,這屬于人工編程的范疇;機(jī)器學(xué)習(xí)則由算法
    發(fā)表于 07-25 14:33