一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

用于少數(shù)鏡頭命名實(shí)體識別的分解元學(xué)習(xí)

深度學(xué)習(xí)自然語言處理 ? 來源:PaperWeekly ? 作者:回亭風(fēng) ? 2022-07-05 14:08 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

論文標(biāo)題:

Decomposed Meta-Learning for Few-Shot Named Entity Recognition

論文鏈接:

https://arxiv.org/abs/2204.05751

代碼鏈接:

https://github.com/microsoft/vert-papers/tree/master/papers/DecomposedMetaNER

Abstract

少樣本 NER 的系統(tǒng)目的在于通過很少的標(biāo)注樣本來識別新的命名實(shí)體類。本文提出了一個(gè)分解的元學(xué)習(xí)方法來解決小樣本 NER,通過將原問題分解為小樣本跨度預(yù)測和小樣本實(shí)體分類兩個(gè)過程。具體來說,我們將跨度預(yù)測當(dāng)作序列標(biāo)注問題并且使用 MAML 算法訓(xùn)練跨度預(yù)測器來找到更好的模型初始化參數(shù)并且使模型能夠快速適配新實(shí)體。對于實(shí)體分類,我們提出 MAML-ProtoNet,一個(gè) MAML 增強(qiáng)的原型網(wǎng)絡(luò),能夠找到好的嵌入空間來更好的分辨不同實(shí)體類的跨度。在多個(gè) benchmark 上的實(shí)驗(yàn)表明,我們的方法取得了比之前的方法更好的效果。

Intro

NER 目的在于定位和識別文本跨度中的預(yù)定義實(shí)體類諸如 location、organization。在標(biāo)準(zhǔn)的監(jiān)督學(xué)習(xí) NER 中深度學(xué)習(xí)的架構(gòu)取得了很大的成功。然而,在實(shí)際應(yīng)用中,NER 的模型通常需要迅速適配一些新的未見過的實(shí)體類,且通常標(biāo)注大量的新樣本開銷很大。因此,小樣本 NER 近年來得到了廣泛的研究。 之前關(guān)于小樣本 NER 的研究都是基于 token 級的度量學(xué)習(xí),將每個(gè)查詢 token 和原型進(jìn)行度量上的比較,然后為每個(gè) token 分配標(biāo)簽。最近的很多研究都轉(zhuǎn)為跨度級的度量學(xué)習(xí),能夠繞過 token 對標(biāo)簽的以來并且明確利用短語的表征。 然而這些方法在遇到較大領(lǐng)域偏差時(shí)可能沒那么有效,因?yàn)樗麄冎苯邮褂脤W(xué)習(xí)的度量而沒有對目標(biāo)域進(jìn)行適配。換句話說,這些方法沒有完全挖掘支持集數(shù)據(jù)的信息?,F(xiàn)在的方法還存在以下限制: 1. 解碼過程需要對重疊的跨度仔細(xì)處理; 2. 非實(shí)體類型“O”通常時(shí)噪聲,因?yàn)檫@些詞之間幾乎沒有共同點(diǎn)。 此外,當(dāng)針對一個(gè)不同的領(lǐng)域時(shí),唯一可用的信息僅僅是很少的支持樣本,不幸的是,這些樣本在之前的方法中僅僅被應(yīng)用在推理階段計(jì)算相似度的過程中。 為了解決這些局限性,本文提出了一種分解的元學(xué)習(xí)方法,將原問題分解為跨度預(yù)測和實(shí)體分類兩個(gè)過程。具體來講: 1. 對于小樣本跨度預(yù)測來說,我們將其看作序列標(biāo)注問題來解決重疊跨度的問題。這個(gè)過程目的在于定位命名實(shí)體并且是與類別無關(guān)的。然后我們僅僅對被標(biāo)注出的跨度進(jìn)行實(shí)體分類,這樣也可以消除“O”類噪聲的影響。當(dāng)訓(xùn)練跨度檢測模塊時(shí),我們采用的 MAML 算法來找到好的模型初始化參數(shù),在使用少量目標(biāo)域支持集樣本更新后,能夠快速適配新實(shí)體類。在模型更新時(shí),特定領(lǐng)域的跨度邊界信息能夠被模型有效的利用,使模型能夠更好的遷移到目標(biāo)領(lǐng)域; 2. 對于實(shí)體分類,采用了 MAML-ProtoNet 來縮小源域和目標(biāo)域的差距。 我們在一些 benchmark 上進(jìn)行了實(shí)驗(yàn),實(shí)驗(yàn)表明我們提出的框架比之前的 SOTA 模型表現(xiàn)更好,我們還進(jìn)行了定性和定量的分析,不同的元學(xué)習(xí)策略對于模型表現(xiàn)的影響。

Method

本文遵循傳統(tǒng)的 N-way-K-shot 的小樣本設(shè)置,示例如下表(2-way-1-shot):

e74d80fa-fc23-11ec-ba43-dac502259ad0.png

下圖為模型的總體結(jié)構(gòu):

e7728026-fc23-11ec-ba43-dac502259ad0.png

2.1 Entity Span Detection

跨度檢測階段不需要分類具體的實(shí)體類,因此模型的參數(shù)可以在不同的領(lǐng)域之間共享?;诖耍覀儾捎?MAML 來促進(jìn)領(lǐng)域不變的內(nèi)部表征學(xué)習(xí)而不是針對特定領(lǐng)域特征的學(xué)習(xí)。這種方式訓(xùn)練的元學(xué)習(xí)模型對于目標(biāo)域的樣本更加敏感,因此只需要少量樣本進(jìn)行微調(diào)就能取得很好的效果而不會過擬合。 2.1.1 Basic Detector 基檢測器是一個(gè)標(biāo)準(zhǔn)的序列標(biāo)注任務(wù),采用 BIOES 的標(biāo)注策略,對于一個(gè)句子序列 {xi},使用一個(gè)編碼器得到其上下文表征 h,然后通過 softmax 生成概率分布。

e7a4b1b8-fc23-11ec-ba43-dac502259ad0.png

▲ fθ:編碼器

e7b0ed20-fc23-11ec-ba43-dac502259ad0.png

▲概率分布 模型的訓(xùn)練誤差在交叉熵?fù)p失基礎(chǔ)上添加了最大值項(xiàng)來緩解對于損失較高的 token 學(xué)習(xí)不足的問題:

e7cdece0-fc23-11ec-ba43-dac502259ad0.png

▲交叉熵?fù)p失 推理階段采用了維特比解碼,這里我們沒有訓(xùn)練轉(zhuǎn)移矩陣,簡單的添加了一些限制保證預(yù)測的標(biāo)簽不違反 BIOES 的標(biāo)注規(guī)則。 2.1.2 Meta-Learning Procedure 元訓(xùn)練過程具體來說,首先隨機(jī)采樣一組訓(xùn)練 episode:

e7f7b96c-fc23-11ec-ba43-dac502259ad0.png

使用支持集進(jìn)行 inner-update 過程:

e81b8cac-fc23-11ec-ba43-dac502259ad0.png

其中 Un 代表 n 步梯度更新,損失采用上文所述的損失函數(shù)。然后使用更新后的參數(shù) Θ' 在查詢集上進(jìn)行評估,將一個(gè) batch 內(nèi)的所有 episode 的損失求和,訓(xùn)練目標(biāo)是最小化該損失:

e835bca8-fc23-11ec-ba43-dac502259ad0.png

用上述損失來更新模型的原參數(shù) Θ,這里使用一階導(dǎo)數(shù)來近似計(jì)算:

e8430d90-fc23-11ec-ba43-dac502259ad0.png

MAML 數(shù)學(xué)推導(dǎo)參考:MAML

https://zhuanlan.zhihu.com/p/181709693

在推理階段先使用基模型中提到的交叉熵?fù)p失在支持集上微調(diào),然后在查詢集上使用微調(diào)后的模型進(jìn)行測試。

2.2 Entity Typing

實(shí)體分類模塊采用原型網(wǎng)絡(luò)作為基礎(chǔ)模型,使用 MAML 算法對模型進(jìn)行增強(qiáng),使模型得到一個(gè)更具代表性的嵌入空間來更好的區(qū)分不同的實(shí)體類。 2.2.1 Basic Model 這里使用了另一個(gè)編碼器來對輸入 token 進(jìn)行編碼,然后使用跨度檢測模塊輸出的跨度 x[i,j],將跨度中所有的 token 表征取平均來代表此跨度的表征:

e862bbd6-fc23-11ec-ba43-dac502259ad0.png

e87639f4-fc23-11ec-ba43-dac502259ad0.png

遵循原型網(wǎng)絡(luò)的設(shè)置,使用支持集中屬于同一實(shí)體類的跨度的求和平均作為類原型的表示:

e88f60be-fc23-11ec-ba43-dac502259ad0.png

模型的訓(xùn)練過程先采用支持集計(jì)算每個(gè)類原型的表示,然后對于查詢集中的每個(gè)跨度,通過計(jì)算其到某一類原型的距離來計(jì)算其屬于該類的概率:

e8bd2454-fc23-11ec-ba43-dac502259ad0.png

模型的訓(xùn)練目標(biāo)是一個(gè)交叉熵?fù)p失:

e8d8e84c-fc23-11ec-ba43-dac502259ad0.png

推理階段就是簡單的計(jì)算與哪一類原型距離最近即可:

e8f043f2-fc23-11ec-ba43-dac502259ad0.png

2.2.2 MAML Enhanced ProtoNet 這一過程的設(shè)置與跨度檢測中應(yīng)用的 MAML 一致,同樣是使用 MAML 算法來找到一個(gè)更好的初始化參數(shù),詳細(xì)過程參考上文:

e8fcffca-fc23-11ec-ba43-dac502259ad0.png

e91e00bc-fc23-11ec-ba43-dac502259ad0.png

推理階段也與上文一致,這里不詳細(xì)說明了。

實(shí)驗(yàn)

3.1 數(shù)據(jù)集和設(shè)置

本文采用 Few-NERD,一個(gè)專門為 few-shot NER 推出的數(shù)據(jù)集以及 cross-dataset,四種不同領(lǐng)域的數(shù)據(jù)集的整合。對于 Few-NERD 使用 P、R、micro-F1 作為評價(jià)指標(biāo),cross-dataset 采用 P、R、F1 作為評價(jià)指標(biāo)。文中兩個(gè)編碼器采用兩個(gè)獨(dú)立的 BERT,優(yōu)化器使用 AdamW。

3.2 主實(shí)驗(yàn)

e93e4f0c-fc23-11ec-ba43-dac502259ad0.png

▲ Few-NERD

e9657b2c-fc23-11ec-ba43-dac502259ad0.png

▲Cross-Dataset

3.3 消融實(shí)驗(yàn)

e97dc34e-fc23-11ec-ba43-dac502259ad0.png

3.4 分析

對于跨度檢測,作者用一個(gè)全監(jiān)督的跨度檢測器進(jìn)行實(shí)驗(yàn):

e99005d6-fc23-11ec-ba43-dac502259ad0.png

作者分析,未精調(diào)的模型預(yù)測的 Broadway 對于新實(shí)體類來說是一個(gè)錯(cuò)誤的預(yù)測(Broadway 出現(xiàn)在了訓(xùn)練數(shù)據(jù)中),然后通過對該模型采用新實(shí)體類樣本進(jìn)行精調(diào),可以看出模型能夠預(yù)測出正確的跨度,但是 Broadway 這一跨度仍然被預(yù)測了。這表明傳統(tǒng)的精調(diào)雖然可以使模型獲取一定的新類信息,但是其還是存在很大偏差。 然后作者對比了 MAML 增強(qiáng)的模型和未使用 MAML 模型的 F1 指標(biāo):

e99f2ae8-fc23-11ec-ba43-dac502259ad0.png

MAML 算法可以更好的利用支持集的數(shù)據(jù),找到一個(gè)更好的初始化參數(shù),使模型能夠快速適配到新域中。 然后作者分析了 MAML 如何提升原型網(wǎng)絡(luò),首先是指標(biāo)上 MAML 增強(qiáng)的原型網(wǎng)絡(luò)會有一定的提升:

e9c0b488-fc23-11ec-ba43-dac502259ad0.png

接著作者進(jìn)行了可視化分析:

e9e0a00e-fc23-11ec-ba43-dac502259ad0.png

從上圖可以看出,MAML 增強(qiáng)的原型網(wǎng)絡(luò)能夠更好的區(qū)分各個(gè)類原型。

Conclusion

本文提出了一個(gè)兩階段的模型,跨度檢測和實(shí)體分類來進(jìn)行小樣本 NER 任務(wù),兩個(gè)階段的模型均使用元學(xué)習(xí) MAML 的方法來進(jìn)行增強(qiáng),獲取了更好的初始化參數(shù),能夠使模型通過少量樣本快速適配到新域中。本文也算是一篇啟發(fā)性的文章,在指標(biāo)上可以看出,元學(xué)習(xí)的方法對小樣本 NER 任務(wù)有著巨大的提升。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3517

    瀏覽量

    50381
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5561

    瀏覽量

    122771

原文標(biāo)題:ACL2022 | 分解的元學(xué)習(xí)小樣本命名實(shí)體識別

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    ADS1274識別的信號可以小于噪聲1000倍,是真的嗎?

    據(jù)說Σ△型的AD可以識別的信號可以小于噪聲1000倍,這個(gè)不知道是否屬實(shí),還有就是如果是的話,使用它是不是需要編寫特別的驅(qū)動??好編寫么···?大神指教
    發(fā)表于 01-23 08:37

    用于內(nèi)窺鏡鏡頭模組的環(huán)氧樹脂封裝膠

    用于內(nèi)窺鏡鏡頭模組的環(huán)氧樹脂封裝膠適用于內(nèi)窺鏡鏡頭模組的環(huán)氧樹脂封裝膠是一種高性能的膠粘劑,它結(jié)合了環(huán)氧樹脂的優(yōu)異特性和內(nèi)窺鏡鏡頭模組的特
    的頭像 發(fā)表于 01-10 09:18 ?573次閱讀
    適<b class='flag-5'>用于</b>內(nèi)窺鏡<b class='flag-5'>鏡頭</b>模組的環(huán)氧樹脂封裝膠

    千萬級 FA 鏡頭應(yīng)用線路板缺陷檢測

    FA 鏡頭即工業(yè)鏡頭,千萬級則代表其具備千萬像素級別的超高分辨率。在檢測線路板時(shí),鏡頭利用光學(xué)成像原理,將線路板上的細(xì)節(jié)清晰地投射到圖像傳感器上。
    的頭像 發(fā)表于 01-06 14:23 ?574次閱讀
    千萬級 FA <b class='flag-5'>鏡頭</b>應(yīng)用線路板缺陷檢測

    【「嵌入式系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn)」閱讀體驗(yàn)】“基于車牌識別的自動地鎖”案例學(xué)習(xí)

    這書中有非常非常多的優(yōu)秀案例,我們一起來看一個(gè)來自東南大學(xué)沁恒賽題的精選案例。這一作品從選題到設(shè)計(jì),再到展示,都體現(xiàn)了非常高的水準(zhǔn),值得我們深入學(xué)習(xí)與借鑒。 這個(gè)作品聚焦于住宅區(qū)車位管理問題,具體
    發(fā)表于 12-10 23:46

    ASR與傳統(tǒng)語音識別的區(qū)別

    ASR(Automatic Speech Recognition,自動語音識別)與傳統(tǒng)語音識別在多個(gè)方面存在顯著的區(qū)別。以下是對這兩者的對比: 一、技術(shù)基礎(chǔ) ASR : 基于深度學(xué)習(xí)算法的新型語音
    的頭像 發(fā)表于 11-18 15:22 ?1337次閱讀

    風(fēng)華貼片瓷介電容型號識別命名方法

    風(fēng)華貼片瓷介電容的型號識別命名方法主要包括以下幾個(gè)關(guān)鍵部分,以下將按照清晰的結(jié)構(gòu)進(jìn)行分點(diǎn)表示和歸納: 1、封裝尺寸 : 常見的封裝尺寸包括0201、0402、0603、0805、1206等,這些
    的頭像 發(fā)表于 11-05 16:16 ?1136次閱讀
    風(fēng)華貼片瓷介電容型號<b class='flag-5'>識別</b>及<b class='flag-5'>命名</b>方法

    TAC5242EVM-K通過usb連接電腦出現(xiàn)不能識別的問題,怎么解決?

    我們發(fā)現(xiàn)直接通過usb連接電腦出現(xiàn)不能識別的現(xiàn)象,希望能夠給一個(gè)驅(qū)動(我們自己在其他項(xiàng)目中有使用xmos作為聲卡和hifi解碼應(yīng)用)
    發(fā)表于 09-29 07:48

    深度識別人臉識別有什么重要作用嗎

    安全監(jiān)控領(lǐng)域,深度學(xué)習(xí)人臉識別技術(shù)可以用于實(shí)時(shí)監(jiān)控和分析視頻流,以識別特定的個(gè)人或行為模式。這對于防止犯罪、保護(hù)財(cái)產(chǎn)和人員安全至關(guān)重要。 2. 身份驗(yàn)證 在金融、政府和企業(yè)領(lǐng)域,深度
    的頭像 發(fā)表于 09-10 14:55 ?1130次閱讀

    使用 TMP1826 嵌入式 EEPROM 替換用于模塊識別的外部存儲器

    電子發(fā)燒友網(wǎng)站提供《使用 TMP1826 嵌入式 EEPROM 替換用于模塊識別的外部存儲器.pdf》資料免費(fèi)下載
    發(fā)表于 09-09 09:44 ?0次下載
    使用 TMP1826 嵌入式 EEPROM 替換<b class='flag-5'>用于</b>模塊<b class='flag-5'>識別的</b>外部存儲器

    【《大語言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)知識學(xué)習(xí)

    的信息,提供更全面的上下文理解。這使得模型能夠更準(zhǔn)確地理解復(fù)雜問題中的多個(gè)層面和隱含意義。 2. 語義分析 模型通過訓(xùn)練學(xué)習(xí)到語言的語義特征,能夠識別文本中的命名實(shí)體、句法結(jié)構(gòu)和語義關(guān)系等信息。這些
    發(fā)表于 08-02 11:03

    什么是離線語音識別芯片?與在線語音識別的區(qū)別

    離線語音識別芯片適用于智能家電等,特點(diǎn)為小詞匯量、低成本、安全性高、響應(yīng)快,無需聯(lián)網(wǎng)。在線語音識別功能更廣泛、識別準(zhǔn)確率高,但依賴穩(wěn)定網(wǎng)絡(luò)。
    的頭像 發(fā)表于 07-22 11:33 ?949次閱讀

    目標(biāo)檢測識別主要應(yīng)用于哪些方面

    目標(biāo)檢測識別是計(jì)算機(jī)視覺領(lǐng)域的一個(gè)重要研究方向,它主要關(guān)注于從圖像或視頻中識別和定位目標(biāo)物體。隨著計(jì)算機(jī)視覺技術(shù)的不斷發(fā)展,目標(biāo)檢測識別已經(jīng)廣泛應(yīng)用于各個(gè)領(lǐng)域,為人們的生活帶來了極大的
    的頭像 發(fā)表于 07-17 09:34 ?1887次閱讀

    圖像識別算法都有哪些方法

    傳統(tǒng)方法和基于深度學(xué)習(xí)的方法。 傳統(tǒng)圖像識別算法 1.1 邊緣檢測 邊緣檢測是圖像識別的基礎(chǔ),它用于檢測圖像中的邊緣信息。邊緣是圖像中亮度變化最明顯的區(qū)域,通常表示物體的邊界。常用的邊
    的頭像 發(fā)表于 07-16 11:14 ?7463次閱讀

    如何學(xué)習(xí)智能家居?8:Text文本實(shí)體使用方法

    hello,伙伴們最近一直在弄AiPi-Eyes-R3的資料,渲染、3D 外殼設(shè)計(jì)......一直沒時(shí)間開發(fā)新的 HomeAssistant MQTT 實(shí)體,最新的實(shí)體估計(jì)也是在本月初開發(fā)完的,一直
    的頭像 發(fā)表于 07-15 14:06 ?2021次閱讀
    如何<b class='flag-5'>學(xué)習(xí)</b>智能家居?8:Text文本<b class='flag-5'>實(shí)體</b>使用方法

    工業(yè)鏡頭光學(xué)原理、優(yōu)勢及應(yīng)用

    工業(yè)鏡頭是一種專門設(shè)計(jì)用于工業(yè)環(huán)境的光學(xué)鏡頭,主要應(yīng)用于機(jī)器視覺、過程控制和自動化領(lǐng)域。這些鏡頭不僅具備高分辨率、高對比度和高光學(xué)性能,還具
    的頭像 發(fā)表于 07-15 11:37 ?1281次閱讀
    工業(yè)<b class='flag-5'>鏡頭</b>光學(xué)原理、優(yōu)勢及應(yīng)用