一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

受控文本生成模型的一般架構(gòu)及故事生成任務(wù)等方面的具體應(yīng)用

深度學(xué)習(xí)自然語言處理 ? 來源:哈工大訊飛聯(lián)合實(shí)驗(yàn)室 ? 作者:申資卓 ? 2021-10-13 09:46 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

來自:哈工大訊飛聯(lián)合實(shí)驗(yàn)室

本期導(dǎo)讀:本文是對受控文本生成任務(wù)的一個(gè)簡單的介紹。首先,本文介紹了受控文本生成模型的一般架構(gòu),點(diǎn)明了受控文本生成模型的特點(diǎn)。然后,本文介紹了受控文本生成技術(shù)在故事生成任務(wù)和常識(shí)生成任務(wù)上的具體應(yīng)用,指出了受控文本生成技術(shù)在具體應(yīng)用場景下的改進(jìn)方向。

0. 什么是受控文本生成

文本生成任務(wù)是自然語言處理領(lǐng)域十分重要的一類任務(wù)。文本摘要、語法糾錯(cuò)、人機(jī)對話等很多自然語言處理任務(wù)都可以被視為文本生成任務(wù)。GPT-2、BART、T5等文本生成相關(guān)的技術(shù)也在這些任務(wù)上取得了較好的效果。

受控文本生成任務(wù)與常規(guī)的文本生成任務(wù)有一些不同。常規(guī)的文本生成任務(wù)對生成文本的內(nèi)容(Content)通常沒有強(qiáng)制性的約束,而受控文本生成任務(wù)會(huì)要求生成文本的內(nèi)容必須滿足一些既定的約束條件,如風(fēng)格(Style)、主題(Topic)等。

例如,文本風(fēng)格轉(zhuǎn)換(Text Style Transfer)就是一類十分經(jīng)典的受控文本生成任務(wù),該任務(wù)要求生成文本的內(nèi)容在語義上需要與轉(zhuǎn)換前保持一致,在風(fēng)格上需要轉(zhuǎn)換為預(yù)定義好的目標(biāo)風(fēng)格。從應(yīng)用的角度來看,受控文本生成技術(shù)更有希望構(gòu)建出場景適配的、用戶可接受的文本生成系統(tǒng)。因此,受控文本生成技術(shù)已經(jīng)被越來越多的研究者關(guān)注。

1. 受控文本生成模型的一般架構(gòu)

CMU的一些研究者們發(fā)表在COLING 2020的一篇論文對受控文本生成模型的一般架構(gòu)(見圖1)進(jìn)行了比較細(xì)致的描述。受控文本生成模型在生成受控文本時(shí)可以通過5個(gè)子模塊對生成文本進(jìn)行控制。

第一個(gè)模塊稱為額外輸入模塊(External Input module),該模塊負(fù)責(zé)提供生成受控文本時(shí)的初始信號(hào)

第二個(gè)模塊稱為序列輸入模塊(Sequential Input module),該模塊負(fù)責(zé)提供生成受控文本時(shí)每個(gè)時(shí)間步上的輸入。

第三個(gè)模塊稱為生成操作模塊(Generator Operations module),該模塊決定每個(gè)時(shí)間步向量表示的計(jì)算方式,即是使用RNN計(jì)算,還是使用Transformer計(jì)算,亦或是使用其他計(jì)算方式。

第四個(gè)模塊稱為輸出模塊(Output module),該模塊負(fù)責(zé)將每個(gè)時(shí)間步的向量表示映射為輸出結(jié)果。

第五個(gè)模塊稱為訓(xùn)練目標(biāo)模塊(Training Objective module),該模塊負(fù)責(zé)損失函數(shù)的計(jì)算。

其中額外輸入模塊,是受控文本生成模型中比較特殊且重要的一個(gè)模塊,該模塊通常會(huì)提供一個(gè)與控制目標(biāo)相關(guān)的向量表示作為受控文本生成的初始信號(hào),從而保證生成的文本滿足預(yù)定義的控制目標(biāo)。另外,輸出模塊也是受控文本生成模型致力于改進(jìn)的一個(gè)模塊。常規(guī)的文本生成任務(wù)只需要將每個(gè)時(shí)間步的向量表示映射為詞表分布作為輸出空間即可,而在受控文本生成模型中就需要通過某種方式改變輸出空間的分布去獲得期望的輸出結(jié)果。

2. 受控文本生成技術(shù)在故事生成任務(wù)上的應(yīng)用

本節(jié)介紹一個(gè)發(fā)表在EMNLP 2020上的利用受控文本生成技術(shù)改進(jìn)故事生成的工作。該工作使用的數(shù)據(jù)集為ROCStories dataset(該數(shù)據(jù)集中的每個(gè)故事都由5個(gè)句子組成),其任務(wù)設(shè)定為給定故事的第一個(gè)句子,機(jī)器自動(dòng)生成后面的句子。

如果不使用受控文本生成技術(shù),該任務(wù)就是一個(gè)簡單的語言模型式的文本生成任務(wù),直接使用GPT-2就可以完成。但是,直接使用GPT-2生成的故事很難保證生成的結(jié)果是語義連貫且邏輯自洽的。因此,將受控文本生成技術(shù)引入到故事生成任務(wù)中就有可能控制故事生成的內(nèi)容,從而改進(jìn)故事生成的效果。

該工作首先使用一個(gè)基于GPT-2的關(guān)鍵詞預(yù)測模型預(yù)測出與下一句相關(guān)的關(guān)鍵詞,然后使用這些關(guān)鍵詞去大規(guī)模的知識(shí)庫中檢索出與這些關(guān)鍵詞相關(guān)的三元組,這些三元組會(huì)通過一些模板被轉(zhuǎn)化為句子。

由于這些由三元組轉(zhuǎn)化的句子數(shù)量較多且可能存在大量的噪音,因此,還需要一個(gè)與下一句信息相關(guān)聯(lián)的基于BERT的排序模型對這些句子進(jìn)行排序,從而選擇出與下一句信息最相關(guān)的TopN個(gè)句子。在獲得這些來源于知識(shí)庫的句子后,我們就可以將這些句子作為控制信息并與當(dāng)前句進(jìn)行拼接一起作為GPT-2的輸入去生成下一句。上述流程需要循環(huán)進(jìn)行直到生成故事中所有的句子。圖2是該工作整體的流程圖。

e3bc4c42-14b5-11ec-8fb8-12bb97331649.png

圖2 基于知識(shí)庫信息控制的故事生成流程圖

這個(gè)工作雖然沒有對受控文本生成模型進(jìn)行改進(jìn),但是從大規(guī)模知識(shí)庫中獲取控制信息進(jìn)行文本生成的思路還是有一定借鑒意義的。

3. 受控文本生成技術(shù)在常識(shí)生成任務(wù)上的應(yīng)用

本節(jié)介紹一個(gè)發(fā)表在ACL 2021上將受控文本生成技術(shù)應(yīng)用在常識(shí)生成任務(wù)上的工作。常識(shí)生成任務(wù)是一項(xiàng)比較新穎的文本生成任務(wù)。該任務(wù)的設(shè)定為給定一個(gè)概念集合,機(jī)器需要自動(dòng)生成一個(gè)能夠描述這個(gè)概念集合的句子,并且生成的句子不能違背常識(shí)。例如,給定一個(gè)概念集合{apple, bag, put},理想情況下機(jī)器應(yīng)該生成“A girl puts an apple in her bag”這樣的句子。如果機(jī)器生成了“A girl eats an apple”或者“A girl puts a bag in her apple”,都不能算是一個(gè)合格的生成結(jié)果。因此,要想獲得一個(gè)較好的生成結(jié)果,我們首先需要保證的就是概念集合里的概念都要出現(xiàn)在輸出結(jié)果中。

本節(jié)介紹的工作提出了一種名為“Mention Flags”的方法,通過在解碼端引入一個(gè)提及標(biāo)記矩陣(Mention Flag Matrix)來標(biāo)記輸入項(xiàng)與輸出項(xiàng)的提及關(guān)系,從而控制每個(gè)時(shí)間步解碼時(shí)的輸出。提及標(biāo)記矩陣中的元素共有3種不同的取值,取0時(shí)表示該輸入項(xiàng)不是控制項(xiàng),取1時(shí)表示該輸入項(xiàng)是控制項(xiàng),但在輸出項(xiàng)中未出現(xiàn)。取2時(shí)表示該輸入項(xiàng)是控制項(xiàng),并已經(jīng)在輸出項(xiàng)中出現(xiàn)。以輸入為{apple, bag, put},輸出為“A girl puts an apple in her bag”為例。

在訓(xùn)練時(shí),提及標(biāo)記矩陣可以通過輸入與輸出的對齊數(shù)據(jù)直接轉(zhuǎn)換得到。在推理時(shí),我們只需要在每個(gè)時(shí)間步遞增式地?cái)U(kuò)充提及標(biāo)記矩陣的每一列即可。

最后是如何將提及標(biāo)記矩陣融入到模型中的問題。由于該工作使用的是基于Transformer的文本生成模型,其作者將提及標(biāo)記矩陣視為輸入項(xiàng)與輸出項(xiàng)的相對位置(Relative Position),在計(jì)算輸出項(xiàng)與輸入項(xiàng)的交叉注意力(Cross Attention)時(shí)將相對位置信息融入到模型計(jì)算中。

4. 小結(jié)

本文簡單介紹了受控文本生成與常規(guī)文本生成任務(wù)的區(qū)別,并對受控文本生成模型的一般架構(gòu)進(jìn)行了闡述。受控文本生成的特殊點(diǎn)主要在于受控信息的獲取以及對輸出結(jié)果的控制。因此,要想獲得一個(gè)較好的受控文本生成系統(tǒng),就可以從這兩點(diǎn)上對文本生成的模型或方案進(jìn)行改進(jìn)。另外,文本還介紹了受控文本生成技術(shù)在故事生成任務(wù)和常識(shí)生成任務(wù)上的應(yīng)用,這些方法和思想同樣可以借鑒到其他受控文本生成任務(wù)中。

編輯:jq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • CMU
    CMU
    +關(guān)注

    關(guān)注

    0

    文章

    21

    瀏覽量

    15441
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1223

    瀏覽量

    25396
  • GPT
    GPT
    +關(guān)注

    關(guān)注

    0

    文章

    368

    瀏覽量

    16049
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    490

    瀏覽量

    22588

原文標(biāo)題:受控文本生成任務(wù)簡述

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    關(guān)于鴻蒙App上架中“AI文本生成模塊的資質(zhì)證明文件”的情況說明

    檢查結(jié)果為“通過”或?qū)徍藸顟B(tài)為“審核通過”。 那么對于這個(gè)問題,我也是嘗試去解決……這里分享下我了解到的情況和方法 首先,這個(gè)政策雖然說是針對AI文本生成模塊,但實(shí)際上,針對的是所有調(diào)用了AI大模型
    發(fā)表于 06-30 18:37

    了解DeepSeek-V3 和 DeepSeek-R1兩個(gè)大模型的不同定位和應(yīng)用選擇

    功能對比: 1. 核心定位差異 維度 DeepSeek-V3 DeepSeek-R1 目標(biāo)場景 通用型任務(wù)文本生成、多輪對話等) 復(fù)雜推理與數(shù)學(xué)能力優(yōu)先(如STEM領(lǐng)域) 優(yōu)化方向 平衡性能與成本,覆蓋廣泛
    發(fā)表于 02-14 02:08

    生成式人工智能模型的安全可信評測

    近些年來,生成式人工智能技術(shù)取得了飛躍發(fā)展。隨著各式各樣的大模型不斷迭代升級(jí),從一般通用生成能力,到各種專有領(lǐng)域的細(xì)分能力,再到更注重與用戶的實(shí)際交互,大
    的頭像 發(fā)表于 01-22 13:55 ?995次閱讀
    <b class='flag-5'>生成</b>式人工智能<b class='flag-5'>模型</b>的安全可信評測

    【「基于大模型的RAG應(yīng)用開發(fā)與優(yōu)化」閱讀體驗(yàn)】+Embedding技術(shù)解讀

    生成回答。在特定領(lǐng)域或任務(wù)中,可以通過微調(diào)Embedding模型來提高檢索的相關(guān)性和準(zhǔn)確性。Embedding在大模型RAG技術(shù)中發(fā)揮著至關(guān)重要的作用。它不僅實(shí)現(xiàn)了
    發(fā)表于 01-17 19:53

    檢索增強(qiáng)型生成(RAG)系統(tǒng)詳解

    流暢且類似人類的文本方面表現(xiàn)出色,但它們有時(shí)在事實(shí)準(zhǔn)確性上存在困難。當(dāng)準(zhǔn)確性非常重要時(shí),這可能是個(gè)巨大的問題。 那么,這個(gè)問題的解決方案是什么呢?答案是檢索增強(qiáng)型生成(RAG)系統(tǒng)。
    的頭像 發(fā)表于 12-24 10:44 ?1000次閱讀
    檢索增強(qiáng)型<b class='flag-5'>生成</b>(RAG)系統(tǒng)詳解

    大語言模型優(yōu)化生成管理方法

    大語言模型的優(yōu)化生成管理是個(gè)系統(tǒng)工程,涉及模型架構(gòu)、數(shù)據(jù)處理、內(nèi)容控制、實(shí)時(shí)響應(yīng)以及倫理監(jiān)管等多個(gè)層面。以下,是對大語言
    的頭像 發(fā)表于 12-02 10:45 ?384次閱讀

    NVIDIA推出全新生成式AI模型Fugatto

    NVIDIA 開發(fā)了個(gè)全新的生成式 AI 模型。利用輸入的文本和音頻,該模型可以創(chuàng)作出包含任意的音樂、人聲和聲音組合的作品。
    的頭像 發(fā)表于 11-27 11:29 ?806次閱讀

    如何訓(xùn)練自己的LLM模型

    于什么任務(wù),比如文本生成、翻譯、問答等。 明確你的模型需要達(dá)到的性能標(biāo)準(zhǔn)。 數(shù)據(jù)收集與處理 : 收集大量的文本數(shù)據(jù),這些數(shù)據(jù)將用于訓(xùn)練模型。
    的頭像 發(fā)表于 11-08 09:30 ?1471次閱讀

    如何使用 Llama 3 進(jìn)行文本生成

    使用LLaMA 3(Large Language Model Family of AI Alignment)進(jìn)行文本生成,可以通過以下幾種方式實(shí)現(xiàn),取決于你是否愿意在本地運(yùn)行模型或者使用現(xiàn)成的API
    的頭像 發(fā)表于 10-27 14:21 ?1058次閱讀

    AIGC與傳統(tǒng)內(nèi)容生成的區(qū)別

    AIGC(Artificial Intelligence Generated Content,人工智能生成內(nèi)容)與傳統(tǒng)內(nèi)容生成在多個(gè)方面存在顯著區(qū)別。以下是對這兩者的對比: 、數(shù)據(jù)類
    的頭像 發(fā)表于 10-25 15:13 ?1227次閱讀

    如何評估AI大模型的效果

    、SuperGLUE、SQuAD等。這些數(shù)據(jù)集提供了不同任務(wù)上的基準(zhǔn)評估,使得不同模型在同一任務(wù)上的性能可以進(jìn)行直接比較。 二、多樣性和覆蓋性測試 測試模型在不同類型的數(shù)據(jù)和
    的頭像 發(fā)表于 10-23 15:21 ?3002次閱讀

    AI大模型在自然語言處理中的應(yīng)用

    AI大模型在自然語言處理(NLP)中的應(yīng)用廣泛且深入,其強(qiáng)大的語義理解和生成能力為NLP任務(wù)帶來了顯著的性能提升。以下是對AI大模型在NLP中應(yīng)用的介紹:
    的頭像 發(fā)表于 10-23 14:38 ?1504次閱讀

    【《大語言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)知識(shí)學(xué)習(xí)

    習(xí)語言的表達(dá)方式和生成能力。通過預(yù)測文本中缺失的部分或下個(gè)詞,模型逐漸掌握語言的規(guī)律和特征。 常用的模型結(jié)構(gòu) Transformer
    發(fā)表于 08-02 11:03

    Transformer語言模型簡介與實(shí)現(xiàn)過程

    任務(wù),隨后迅速擴(kuò)展到其他NLP任務(wù)中,如文本生成、語言理解、問答系統(tǒng)等。本文將詳細(xì)介紹Transformer語言模型的原理、特點(diǎn)、優(yōu)勢以及實(shí)現(xiàn)過程。
    的頭像 發(fā)表于 07-10 11:48 ?2967次閱讀

    llm模型和chatGPT的區(qū)別

    LLM(Large Language Model)是指大型語言模型,它們是類使用深度學(xué)習(xí)技術(shù)構(gòu)建的自然語言處理(NLP)模型。LLM模型可以處理各種語言
    的頭像 發(fā)表于 07-09 09:55 ?1965次閱讀