一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

一種處理多標簽文本分類的新穎推理機制

深度學習自然語言處理 ? 來源:南大NLP ? 作者:南大NLP ? 2021-02-05 09:21 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

研究動機

標簽文本分類(multi-label text classification, 簡稱MLTC)的目的是在給定文本后要求模型預測其多個非互斥的相關標簽。該任務在許多自然語言處理任務上都有體現(xiàn)。如在表1中,需要給該文檔打上標簽:basketball、NBA、sport。

表1多標簽文本分類的例子

文本 This article is about a game between Houston Rockets and Los Angeles Lakers.
相關標簽 basketball, NBA, sport
不相關標簽 football

一種處理MLTC的簡單方法是將其轉(zhuǎn)換為多個獨立的二分類問題。該方法被稱為BinaryRelevance (BR),由于其簡單性而被大規(guī)模使用。但該方法的弊端也十分明顯,即該方法完全忽略了標簽之間的相關信息。直覺上,知道一些標簽——如上例中的basketball及NBA——會使得預測其他標簽(如sport)更加簡單。研究者指出對于多標簽分類任務而言,有效利用標簽之間的相關性是有益的、甚至是必要的。為此,涌現(xiàn)出許多利用標簽關系的算法,其中最知名的就是算法Classifier Chains(CC)。該算法將多個二分類器串聯(lián)起來,其中每個分類器使用之前分類器的預測結(jié)果作為額外的輸入。該方法將潛在的標簽依賴納入考慮,但該問題的最大缺陷在于不同的標簽順序會產(chǎn)生天壤之別的性能。同時,CC算法的鏈式結(jié)構(gòu)使得算法無法并行,在處理大規(guī)模數(shù)據(jù)集時效率低下。

近年來,也有學者將標簽集合視作標簽序列,并使用基于神經(jīng)網(wǎng)絡的端到端模型(seq2seq)來處理該任務。相較于CC預測所有標簽,這類seq2seq的模型只預測相關標簽。因此該類模型的決策鏈條長度更短,性能更優(yōu)。但這類模型的性能強烈依賴于標簽的順序。在多標簽數(shù)據(jù)集中,標簽本質(zhì)上是無序的集合,未必可以線性排列。學者們指出不同的標簽順序?qū)τ趯W習和預測有著重大影響。舉例來說,對于表1中的例子,如果標簽序列以sport開始,則對于預測其他相關標簽的幫助不大。

02

解決方案

為了處理上述問題,我們提出了Multi-Label Reasoner(ML-Reasoner),一個基于推理機制的算法。ML-Reasoner的框架如圖1所示,我們?yōu)槊恳粋€標簽分配一個二分類器,它們同時預測所有標簽以滿足標簽的無序性質(zhì)。這樣的話,ML-Reasoner可以同時計算每一個標簽相關的概率。例如在處理上例時,ML-Reasoner可能認為標簽NBA相關的概率為0.9,basketball的為0.7,sport為0.55,football為0.3.這樣,ML-Reasoner就完全避免依賴標簽順序。同時為了有效利用標簽的相關性,我們設置了一種新穎的迭代推理機制,即將上一輪對所有標簽相關的預測作為下一次迭代的額外特征輸入。這種方法使得ML-Reasoner可以在每一輪的迭代中完善預測結(jié)果。舉例來說,考慮到標簽NBA與basketball相關的概率較高,模型可以在后續(xù)迭代中,將標簽sport的概率調(diào)高。

274e6dc8-603e-11eb-8b86-12bb97331649.png

圖1 Multi-Label Reasoner整體框架圖

具體到Reasoner的實現(xiàn),我們將其劃分為五個組件,其相關交互關系見圖2。

2a98ed0a-603e-11eb-8b86-12bb97331649.png

圖2多標簽文本分類的Reasoner模塊

- Text Encoder將詞語序列轉(zhuǎn)換為稠密的向量表示,主要負責抽取文本特征;

- Label Encoder將上一輪次所有標簽的相關概率轉(zhuǎn)換為相應的標簽表示;

- Attention模塊負責計算文本與不同標簽之間的相關性;

- Combiner則將文本的原始特征與標簽特征進行整合;

- 具有相同結(jié)構(gòu)但不同參數(shù)的Classifier則預測各個標簽的相關性。

至于損失函數(shù),我們選擇了Binary Cross Entropy (BCE)。更具體的設置請參見原文。

03

實驗

我們在兩個常用的多標簽文本分類數(shù)據(jù)集Arxiv Acadmeic Paper Dataset(AAPD)及Reuters Corpus Volum I (RCV1-V2)上進行了實驗。AAPD數(shù)據(jù)量更少、標簽密度更大,分類難度更大。評價指標則選用了hamming loss,micro-precision,micro-recall及micro-F1;其中hamming loss越低越好,其他則越高越好。至于基準模型,我們選用了經(jīng)典模型如BR、CC、LP,也有性能優(yōu)越的seq2seq模型如CNN-RNN、SGM,還有其他一些表現(xiàn)卓越的多標簽文本分類模型如LSAN,之外也將seq2set納入進來作為比較。seq2set使用強化學習算法來緩解seq2seq模型對于標簽順序的依賴程度。同時,為了驗證ML-Reasoner在不同文本編碼器上能帶來的性能提升,我們分別使用了CNN、LSTM及BERT作為ML-Reasoner框架中的Text Encoder模塊。實驗結(jié)果如表2所示。

表2 ML-Reasoner及基準模型在兩個數(shù)據(jù)集上的性能

2dc99416-603e-11eb-8b86-12bb97331649.png

從表中可以看出,ML-Reasoner在兩個數(shù)據(jù)集上均達到了SOTA水準,且在三種不同文本編碼器上都能帶來顯著提升。

為了驗證ML-Reasoner可以完全避免對標簽順序的依賴,我們隨機打亂AAPD數(shù)據(jù)集的標簽順序,并進行了測試;各個模型的性能如表3所示。從表中可以看到,CC及seq2seq模型的性能受標簽順序的劇烈影響;seq2set可以顯著緩解seq2seq的問題;而ML-Reasoner則完全不受標簽順序的影響。

表3各模型在標簽打亂的AAPD數(shù)據(jù)集上的性能

31375fac-603e-11eb-8b86-12bb97331649.png

我們也通過燒蝕實驗(見圖3),確定了推理機制確實是性能提升的關鍵。

317b44e2-603e-11eb-8b86-12bb97331649.png

圖3 ML-Reasoner(T=1,2,5)及CNN-Round(T=1,2,5)在AAPD測試集上的性能雷達圖

我們也探究了迭代次數(shù)對模型性能的影響,由圖4可知,進行了一次推理就可以帶來顯著提升;而推理次數(shù)的再次提高并不能帶來更多的提升。這可能是因為模型及數(shù)據(jù)集的選擇導致的。

31f4a364-603e-11eb-8b86-12bb97331649.png

圖4不同迭代輪數(shù)下的ML-Reasoner在AAPD測試集上的性能雷達圖

為了進一步理解Reasoner發(fā)揮作用的機制,我們從數(shù)據(jù)集中選取了一些典型示例(見表4)。在第一個例子中,模型通過推理將相關標簽math.OC添上;模型處理第二個例子時,則將無關標簽cs.LO剔除;有時添加與刪除的動作也會同時發(fā)生(見第三個例子)。當然,推理偶爾也會使預測結(jié)果變差(見第四、第五個例子)。

表4 AAPD測試集中一些由于推理機制預測結(jié)果出現(xiàn)變化的實例

32b5cb2a-603e-11eb-8b86-12bb97331649.png

為了驗證上述例子的變化確實是因為考慮了標簽之間的相關性,我們進一步統(tǒng)計模型在添加或刪除某個標簽時與其他標簽的共現(xiàn)頻率。從圖5中,可以觀察到模型往往在添加某個標簽時,其共現(xiàn)頻率(第二行)與真實共現(xiàn)頻率接近(第一行);而刪除某個標簽時,其共現(xiàn)頻率(第三行)與真實共現(xiàn)頻率(第一行)則相差較遠。

3333a39c-603e-11eb-8b86-12bb97331649.png

圖5 AAPD標簽的共現(xiàn)頻率圖

04

結(jié)論

在本文中,我們提出了算法ML-Reasoner。該算法可以同時預測所有標簽進而避免了對標簽順序的依賴;之外,他通過新穎的推理機制利用了標簽之間的高階關系。實驗結(jié)果表明了ML-Reasoner在捕獲標簽依賴之間的有效性;進一步的分析驗證了其確實未對標簽順序產(chǎn)生依賴。一些經(jīng)驗性試驗也揭示了該算法發(fā)揮作用的機制。由于ML-Reasoner未顯式利用標簽之間的關系,如層次結(jié)構(gòu)等,如何將這些信息納入考慮是值得進一步探索的。

原文標題:【IPM2020】一種處理多標簽文本分類的新穎推理機制

文章出處:【微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

責任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 人工智能
    +關注

    關注

    1806

    文章

    49019

    瀏覽量

    249476
  • 機器學習
    +關注

    關注

    66

    文章

    8503

    瀏覽量

    134612
  • nlp
    nlp
    +關注

    關注

    1

    文章

    490

    瀏覽量

    22621

原文標題:【IPM2020】一種處理多標簽文本分類的新穎推理機制

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    信而泰×DeepSeek:AI推理引擎驅(qū)動網(wǎng)絡智能診斷邁向 “自愈”時代

    學習、大規(guī)模數(shù)據(jù)分析等前沿技術。DeepSeek-R1具備卓越的邏輯推理、模態(tài)分析(文本/圖像/語音)和實時交互能力,能夠高效處理代碼生成、復雜問題求解、跨模態(tài)學習等高階任務。憑借其
    發(fā)表于 07-16 15:29

    大模型推理顯存和計算量估計方法研究

    方法。 、引言 大模型推理是指在已知輸入數(shù)據(jù)的情況下,通過深度學習模型進行預測或分類的過程。然而,大模型的推理過程對顯存和計算資源的需求較高,這給實際應用帶來了以下挑戰(zhàn): 顯存不足:
    發(fā)表于 07-03 19:43

    如何使用攝像頭作為OpenVINO?推理的輸入?

    無法確定如何使用攝像頭作為OpenVINO?推理的輸入
    發(fā)表于 03-06 07:30

    DeepSeek推出NSA機制,加速長上下文訓練與推理

    近日,DeepSeek公司宣布推出一種全新的稀疏注意力機制——NSA(Native Sparse Attention)。據(jù)DeepSeek介紹,NSA旨在與現(xiàn)代硬件實現(xiàn)高度致,并且具備本機可訓練
    的頭像 發(fā)表于 02-19 14:01 ?639次閱讀

    文詳解視覺語言模型

    視覺語言模型(VLM)是一種模態(tài)、生成式 AI 模型,能夠理解和處理視頻、圖像和文本。
    的頭像 發(fā)表于 02-12 11:13 ?1760次閱讀
    <b class='flag-5'>一</b>文詳解視覺語言模型

    k230如何將yolo分類視頻流推理后的視頻結(jié)果保存到本地?

    請問k230如何將yolo分類視頻流推理后的視頻結(jié)果保存到本地?
    發(fā)表于 02-08 08:09

    如何使用自然語言處理分析文本數(shù)據(jù)

    媒體、新聞報道、用戶評論等)收集你感興趣的文本數(shù)據(jù)。 數(shù)據(jù)清洗 :去除無關字符(如HTML標簽、特殊符號等),確保文本數(shù)據(jù)干凈且致。 2. 預處理
    的頭像 發(fā)表于 12-05 15:27 ?1581次閱讀

    文看懂RFID電子標簽的特點及應用

    ,是與讀寫器起構(gòu)成 RFID 系統(tǒng)的硬件主體。 ? RFID 系統(tǒng)基本組成包括RFID電子標簽、讀寫器、射頻天線、應用軟件,是一種利用射頻識別技術進行數(shù)據(jù)采集與傳輸?shù)淖詣幼R別系統(tǒng)。 ? 在智能制造大趨勢下,RFID作為
    的頭像 發(fā)表于 12-02 10:09 ?3339次閱讀
    <b class='flag-5'>一</b>文看懂RFID電子<b class='flag-5'>標簽</b>的特點及應用

    RK3588 技術分享 | 在Android系統(tǒng)中使用NPU實現(xiàn)Yolov5分類檢測

    : NPU幫助機器完成更高效的翻譯、文本分類和情感分析,推動了自然語言處理技術的發(fā)展。 實例分享:Yolov5分類檢測 在RK3588處理器上,不僅可以基于Linux系統(tǒng)使用NPU,也
    發(fā)表于 10-24 10:13

    BitEnergy AI公司開發(fā)出一種新AI處理方法

    BitEnergy AI公司,家專注于人工智能(AI)推理技術的企業(yè),其工程師團隊創(chuàng)新性地開發(fā)了一種名為線性復雜度乘法(L-Mul)的AI處理方法。該方法的核心在于,它用整數(shù)加法替代
    的頭像 發(fā)表于 10-22 15:15 ?833次閱讀

    雷達的基本分類方法

    電子發(fā)燒友網(wǎng)站提供《雷達的基本分類方法.pdf》資料免費下載
    發(fā)表于 09-11 09:09 ?6次下載

    光學字符識別是什么的一種技術

    光學字符識別(Optical Character Recognition,簡稱OCR)是一種文本資料轉(zhuǎn)換為計算機可編輯和可搜索的數(shù)據(jù)格式的技術。這項技術廣泛應用于文檔掃描、數(shù)據(jù)錄入、自動化處理
    的頭像 發(fā)表于 09-10 15:48 ?1128次閱讀

    RK3588 技術分享 | 在Android系統(tǒng)中使用NPU實現(xiàn)Yolov5分類檢測

    : NPU幫助機器完成更高效的翻譯、文本分類和情感分析,推動了自然語言處理技術的發(fā)展。 實例分享:Yolov5分類檢測 在RK3588處理器上,不僅可以基于Linux系統(tǒng)使用NPU,也
    發(fā)表于 08-20 11:13

    【《大語言模型應用指南》閱讀體驗】+ 基礎知識學習

    習語言的表達方式和生成能力。通過預測文本中缺失的部分或下個詞,模型逐漸掌握語言的規(guī)律和特征。 常用的模型結(jié)構(gòu) Transformer架構(gòu):大語言模型通?;赥ransformer架構(gòu),這是一種能夠
    發(fā)表于 08-02 11:03

    如何訓練個有效的eIQ基本分類模型

    eIQ Neutron神經(jīng)處理單元(NPU)是一種高度可擴展的加速器核心架構(gòu),提供ML加速。與傳統(tǒng)MCU Kinetis、LPC系列相比,MCX N系列首次集成了恩智浦 eIQ Neutron神經(jīng)
    的頭像 發(fā)表于 08-01 09:29 ?2823次閱讀
    如何訓練<b class='flag-5'>一</b>個有效的eIQ基<b class='flag-5'>本分類</b>模型