一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一個(gè)學(xué)習(xí)何時(shí)做分類決策的強(qiáng)化學(xué)習(xí)模型:Jumper

倩倩 ? 來(lái)源:雷鋒網(wǎng) ? 2020-04-17 11:25 ? 次閱讀

文本理解是自然語(yǔ)言處理領(lǐng)域的一個(gè)核心目標(biāo),最近取得了一系列的進(jìn)展,包括機(jī)器翻譯、問(wèn)答等。不過(guò)之前的工作大多數(shù)是關(guān)心最終的效果,而人們對(duì)于模型何時(shí)做出決定(或做決定的原因)卻知之甚少,這是一個(gè)對(duì)于理論研究和實(shí)際應(yīng)用都非常重要的課題。深度好奇(DeeplyCurious.AI) 最近在IJCAI-2018上展示了一個(gè)學(xué)習(xí)何時(shí)做分類決策的強(qiáng)化學(xué)習(xí)模型:Jumper, 該論文將文本分類問(wèn)題建模成離散的決策過(guò)程,并通過(guò)強(qiáng)化學(xué)習(xí)來(lái)優(yōu)化,符號(hào)化表征模型的決策過(guò)程具有很好的可解釋性,同時(shí)分類效果也達(dá)到最高水平。

本文提供了一種新的框架,將文本理解建模為一個(gè)離散的決策過(guò)程。通常在閱讀過(guò)程中,人們尋找線索、進(jìn)行推理,并從文本中獲取信息;受到人類認(rèn)知過(guò)程的啟發(fā),我們通過(guò)將句子逐個(gè)地遞送到神經(jīng)網(wǎng)絡(luò)來(lái)模仿這個(gè)過(guò)程。在每個(gè)句子中,網(wǎng)絡(luò)基于輸入做出決策(也稱為動(dòng)作),并且在該過(guò)程結(jié)束時(shí),該決策序列可以視為是對(duì)文本有了一些“理解”。

特別一提的是,我們專注于幾個(gè)預(yù)定義子任務(wù)的文本分類問(wèn)題。當(dāng)我們的神經(jīng)網(wǎng)絡(luò)讀取一個(gè)段落時(shí),每個(gè)子任務(wù)在開始時(shí)具有默認(rèn)值“無(wú)”(None)。 在每個(gè)決策步驟中,段落的句子按順序被遞送到神經(jīng)網(wǎng)絡(luò);之后,網(wǎng)絡(luò)來(lái)決定是否有足夠的信心“跳轉(zhuǎn)”到非默認(rèn)值作為特定時(shí)間的預(yù)測(cè)。我們施加約束,即每次跳轉(zhuǎn)都是最終決定,它不可以在后面的閱讀中被更改。如圖1所示,給定一段話,有多個(gè)預(yù)先定義好的問(wèn)題等待回答;模型按句子閱讀,在閱讀過(guò)程中,問(wèn)題的答案陸續(xù)被找到。模型從默認(rèn)決策到非默認(rèn)決策都是一個(gè)“跳轉(zhuǎn)”的過(guò)程,正因此我們稱模型為Jumper。在人類閱讀的過(guò)程中,人們通常會(huì)獲得一致的閱讀理解的結(jié)果,但是閱讀理解過(guò)程中的很多環(huán)節(jié)卻經(jīng)常是微妙和難以捉摸的。同樣,我們也假設(shè)我們的訓(xùn)練標(biāo)簽僅包含最終結(jié)果,并且沒(méi)有給出關(guān)于模型應(yīng)該做出決定的步驟的監(jiān)督信號(hào)。也就是說(shuō),我們通過(guò)強(qiáng)化學(xué)習(xí)在弱監(jiān)督信號(hào)情況下訓(xùn)練Jumper模型。

圖1 Jumper模型在閱讀段落的決策過(guò)程

Jumper模型主要由編碼層、控制器、符號(hào)輸出層構(gòu)成。編碼層將句子編碼成定長(zhǎng)的向量,控制器根據(jù)歷史和當(dāng)前輸入產(chǎn)生當(dāng)前的決定,符號(hào)輸出層使模型的輸出滿足跳轉(zhuǎn)約束,即每個(gè)決策過(guò)程最多只能有一次跳轉(zhuǎn)。

圖2 Jumper模型的基本框架

跳轉(zhuǎn)約束的作用在于使模型更加慎重地決定何時(shí)跳轉(zhuǎn)。因此,Jumper模型的優(yōu)化目標(biāo)有兩個(gè),第一個(gè)是盡可能早地“跳轉(zhuǎn)”,第二個(gè)是盡可能預(yù)測(cè)準(zhǔn)。假設(shè)t* 是最佳的跳轉(zhuǎn)時(shí)間,那么如果模型在t* 時(shí)刻之前跳轉(zhuǎn),則模型還沒(méi)有看到真正的pattern,那么得到的答案等同于隨機(jī)猜;如果模型在t* 時(shí)刻之后跳轉(zhuǎn),而t* +1句話可能不存在,因此沒(méi)有機(jī)會(huì)跳轉(zhuǎn)從而預(yù)測(cè)錯(cuò)誤。

通過(guò)上述建模,論文把文本分類問(wèn)題轉(zhuǎn)化為離散的決策過(guò)程,訓(xùn)練好的Jumper輸出的離散決策過(guò)程就可以表達(dá)模型對(duì)文本的理解過(guò)程;而決策過(guò)程本身并沒(méi)有標(biāo)簽,因此我們用policy gradient強(qiáng)化學(xué)習(xí)算法來(lái)訓(xùn)練,如果最終的決定和分類標(biāo)簽一致,就獎(jiǎng)勵(lì)整個(gè)決策動(dòng)作,如果不一致,則懲罰。

我們對(duì)三個(gè)任務(wù)評(píng)估了Jumper,包括兩個(gè)基準(zhǔn)數(shù)據(jù)集和一個(gè)實(shí)際工業(yè)應(yīng)用。我們首先分析了Jumper的分類準(zhǔn)確性,并與幾個(gè)基線進(jìn)行了比較。表1顯示Jumper在所有這些任務(wù)上實(shí)現(xiàn)了相當(dāng)或更好的性能,這表明將文本分類建模為順序決策過(guò)程不僅不會(huì)損害、甚至提高了分類準(zhǔn)確性。

表1 在電影評(píng)論數(shù)據(jù)集(MR)、新聞數(shù)據(jù)集(AG)和工傷數(shù)據(jù)集(OI)的測(cè)試集上的準(zhǔn)確率

我們想指出,“準(zhǔn)確性”并不是我們關(guān)注的唯一表現(xiàn)。更重要的是,提出的模型能夠減少閱讀過(guò)程,或者找到文本分類的關(guān)鍵支撐句。只要在閱讀過(guò)程中基于“跳轉(zhuǎn)約束”限制而看到足夠的證據(jù),Jumper就能做出決定,并且在預(yù)測(cè)之后不需要再閱讀之后的句子。在表2中可以看到,我們的模型與強(qiáng)基線相比達(dá)到了相似或更高的性能,與此同時(shí),它還將文本讀取的長(zhǎng)度縮減了30-40%,從而加速了推斷預(yù)測(cè)。

表2

除了準(zhǔn)確率高和推斷速度快以外,我們更好奇Jumper是否能夠在信息提取式任務(wù)(例如工傷級(jí)別分類任務(wù))中找到正確的位置做出決策。我們?cè)?00個(gè)數(shù)據(jù)點(diǎn)中標(biāo)注關(guān)鍵支撐句(即最佳跳轉(zhuǎn)位置)作為測(cè)試基礎(chǔ)。需要注意的是,在這個(gè)實(shí)驗(yàn)中我們?nèi)匀粵](méi)有跳轉(zhuǎn)位置的訓(xùn)練標(biāo)簽。我們將Jumper與使用相同神經(jīng)網(wǎng)絡(luò)的層級(jí)CNN-GRU模型進(jìn)行比較,但在訓(xùn)練方法方面有所不同;層級(jí)CNN-GRU在訓(xùn)練時(shí),用段落末尾的交叉熵作為損失函數(shù)。在測(cè)試期間,我們將預(yù)測(cè)器應(yīng)用于每個(gè)步驟并找到它做出預(yù)測(cè)的第一個(gè)位置。我們還列出了一個(gè)經(jīng)典CNN的結(jié)果作為基線模型,并使用了最大池化操作(max-pooling)選擇的單詞最多的那些句子來(lái)作為測(cè)試數(shù)據(jù)。我們使用了跳轉(zhuǎn)動(dòng)作的準(zhǔn)確率來(lái)評(píng)測(cè)Jumper。通過(guò)表3可知,Jumper準(zhǔn)確地找到了測(cè)試集中所有關(guān)鍵支撐句的位置,說(shuō)明我們的單跳約束迫使模型更仔細(xì)地思考何時(shí)做出決策,也驗(yàn)證了強(qiáng)化學(xué)習(xí)是學(xué)習(xí)決策正確位置的有效方法。

表3 各模型在工傷等級(jí)分類任務(wù)(OI-Level)上尋找關(guān)鍵支撐句的效果統(tǒng)計(jì)。該任務(wù)的關(guān)鍵支撐句在文本中通常聚集于一處,不存在歧義,便于衡量各模型效果。CA:分類準(zhǔn)確率,JA:跳躍準(zhǔn)確率,OA:在分類準(zhǔn)確條件下的跳躍準(zhǔn)確率

圖3則顯示了Jumper在閱讀時(shí)做出決策的過(guò)程。其中,Jumper在前六個(gè)句子中保持默認(rèn)決策(不做跳轉(zhuǎn)),而在到達(dá)關(guān)鍵支撐句時(shí)突然跳轉(zhuǎn),這體現(xiàn)了Jumper可以識(shí)別關(guān)鍵支撐句,從而找到最佳跳躍位置。因此,在這類關(guān)鍵支撐語(yǔ)句集中出現(xiàn)時(shí),Jumper可以在完成分類任務(wù)的同時(shí)找到關(guān)鍵支撐句,因此具有較強(qiáng)的可解釋性。

圖3 Jumper決策序列展示

總結(jié)

我們提出了一種新的模型Jumper,它在閱讀段落時(shí)將文本分類建模為逐個(gè)句子的順序決策過(guò)程。我們通過(guò)強(qiáng)化學(xué)習(xí)訓(xùn)練帶有跳轉(zhuǎn)約束的Jumper,實(shí)驗(yàn)表明:1) Jumper的性能與基線相當(dāng)或更高;2) 它在很大程度上減少了文本閱讀量;3) 如果所需信息在文中的分布是局域性的,它可以找到關(guān)鍵的支撐句子,具有很好的可解釋性。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 控制器
    +關(guān)注

    關(guān)注

    114

    文章

    16854

    瀏覽量

    182368
  • 機(jī)器翻譯
    +關(guān)注

    關(guān)注

    0

    文章

    140

    瀏覽量

    15095
  • 自然語(yǔ)言處理
    +關(guān)注

    關(guān)注

    1

    文章

    625

    瀏覽量

    13938
收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    18個(gè)常用的強(qiáng)化學(xué)習(xí)算法整理:從基礎(chǔ)方法到高級(jí)模型的理論技術(shù)與代碼實(shí)現(xiàn)

    本來(lái)轉(zhuǎn)自:DeepHubIMBA本文系統(tǒng)講解從基本強(qiáng)化學(xué)習(xí)方法到高級(jí)技術(shù)(如PPO、A3C、PlaNet等)的實(shí)現(xiàn)原理與編碼過(guò)程,旨在通過(guò)理論結(jié)合代碼的方式,構(gòu)建對(duì)強(qiáng)化學(xué)習(xí)算法的全面理解。為確保內(nèi)容
    的頭像 發(fā)表于 04-23 13:22 ?181次閱讀
    18<b class='flag-5'>個(gè)</b>常用的<b class='flag-5'>強(qiáng)化學(xué)習(xí)</b>算法整理:從基礎(chǔ)方法到高級(jí)<b class='flag-5'>模型</b>的理論技術(shù)與代碼實(shí)現(xiàn)

    詳解RAD端到端強(qiáng)化學(xué)習(xí)后訓(xùn)練范式

    受限于算力和數(shù)據(jù),大語(yǔ)言模型預(yù)訓(xùn)練的 scalinglaw 已經(jīng)趨近于極限。DeepSeekR1/OpenAl01通過(guò)強(qiáng)化學(xué)習(xí)后訓(xùn)練涌現(xiàn)了強(qiáng)大的推理能力,掀起新輪技術(shù)革新。
    的頭像 發(fā)表于 02-25 14:06 ?398次閱讀
    詳解RAD端到端<b class='flag-5'>強(qiáng)化學(xué)習(xí)</b>后訓(xùn)練范式

    淺談適用規(guī)模充電站的深度學(xué)習(xí)有序充電策略

    深度強(qiáng)化學(xué)習(xí)能夠有效計(jì)及電動(dòng)汽車出行模式和充電需求的不確定性,實(shí)現(xiàn)充電場(chǎng)站充電成本化的目標(biāo)。通過(guò)對(duì)電動(dòng)汽車泊車時(shí)間和充電需求特征進(jìn)行提取,建立適用于大規(guī)模電動(dòng)汽車有序充電的馬爾可夫決策過(guò)程模型,并
    的頭像 發(fā)表于 02-08 15:00 ?403次閱讀
    淺談適用規(guī)模充電站的深度<b class='flag-5'>學(xué)習(xí)</b>有序充電策略

    螞蟻集團(tuán)收購(gòu)邊塞科技,吳翼出任強(qiáng)化學(xué)習(xí)實(shí)驗(yàn)室首席科學(xué)家

    領(lǐng)域的研究與發(fā)展。令人矚目的是,邊塞科技的創(chuàng)始人吳翼已正式加入該實(shí)驗(yàn)室,并擔(dān)任首席科學(xué)家職。 吳翼在其個(gè)人社交平臺(tái)上對(duì)這變動(dòng)進(jìn)行了回應(yīng)。他表示,自己最近接受了螞蟻集團(tuán)的邀請(qǐng),負(fù)責(zé)大模型強(qiáng)化
    的頭像 發(fā)表于 11-22 11:14 ?1219次閱讀

    主動(dòng)學(xué)習(xí)在圖像分類技術(shù)中的應(yīng)用:當(dāng)前狀態(tài)與未來(lái)展望

    選擇高質(zhì)量的訓(xùn)練數(shù)據(jù);基于數(shù)據(jù)分布信息的算法,根據(jù)數(shù)據(jù)分布的特點(diǎn)來(lái)優(yōu)化樣本選擇策略;優(yōu)化模型預(yù)測(cè)的算法,包括優(yōu)化獲取和利用深度模型預(yù)測(cè)信息的方法、基于生成對(duì)抗網(wǎng)絡(luò)和強(qiáng)化學(xué)習(xí)來(lái)優(yōu)化預(yù)測(cè)模型
    的頭像 發(fā)表于 11-14 10:12 ?998次閱讀
    主動(dòng)<b class='flag-5'>學(xué)習(xí)</b>在圖像<b class='flag-5'>分類</b>技術(shù)中的應(yīng)用:當(dāng)前狀態(tài)與未來(lái)展望

    如何使用 PyTorch 進(jìn)行強(qiáng)化學(xué)習(xí)

    強(qiáng)化學(xué)習(xí)(Reinforcement Learning, RL)是種機(jī)器學(xué)習(xí)方法,它通過(guò)與環(huán)境的交互來(lái)學(xué)習(xí)如何做出決策,以最大化累積獎(jiǎng)勵(lì)。
    的頭像 發(fā)表于 11-05 17:34 ?783次閱讀

    FPGA加速深度學(xué)習(xí)模型的案例

    FPGA(現(xiàn)場(chǎng)可編程門陣列)加速深度學(xué)習(xí)模型是當(dāng)前硬件加速領(lǐng)域的個(gè)熱門研究方向。以下是些FPGA加速深度
    的頭像 發(fā)表于 10-25 09:22 ?927次閱讀

    AI大模型與深度學(xué)習(xí)的關(guān)系

    AI大模型與深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進(jìn),相輔相成。以下是對(duì)兩者關(guān)系的介紹: 、深度學(xué)習(xí)是AI大模型的基礎(chǔ) 技術(shù)支撐 :
    的頭像 發(fā)表于 10-23 15:25 ?2458次閱讀

    谷歌AlphaChip強(qiáng)化學(xué)習(xí)工具發(fā)布,聯(lián)發(fā)科天璣芯片率先采用

    近日,谷歌在芯片設(shè)計(jì)領(lǐng)域取得了重要突破,詳細(xì)介紹了其用于芯片設(shè)計(jì)布局的強(qiáng)化學(xué)習(xí)方法,并將該模型命名為“AlphaChip”。據(jù)悉,AlphaChip有望顯著加速芯片布局規(guī)劃的設(shè)計(jì)流程,并幫助芯片在性能、功耗和面積方面實(shí)現(xiàn)更優(yōu)表現(xiàn)。
    的頭像 發(fā)表于 09-30 16:16 ?603次閱讀

    深度學(xué)習(xí)中的時(shí)間序列分類方法

    時(shí)間序列分類(Time Series Classification, TSC)是機(jī)器學(xué)習(xí)和深度學(xué)習(xí)領(lǐng)域的重要任務(wù)之,廣泛應(yīng)用于人體活動(dòng)識(shí)別、系統(tǒng)監(jiān)測(cè)、金融預(yù)測(cè)、醫(yī)療診斷等多個(gè)領(lǐng)域。隨
    的頭像 發(fā)表于 07-09 15:54 ?1761次閱讀

    深度學(xué)習(xí)中的模型權(quán)重

    在深度學(xué)習(xí)充滿無(wú)限可能性的領(lǐng)域中,模型權(quán)重(Weights)作為其核心組成部分,扮演著至關(guān)重要的角色。它們不僅是模型學(xué)習(xí)的基石,更是
    的頭像 發(fā)表于 07-04 11:49 ?3524次閱讀

    深度學(xué)習(xí)的典型模型和訓(xùn)練過(guò)程

    深度學(xué)習(xí)作為人工智能領(lǐng)域的個(gè)重要分支,近年來(lái)在圖像識(shí)別、語(yǔ)音識(shí)別、自然語(yǔ)言處理等多個(gè)領(lǐng)域取得了顯著進(jìn)展。其核心在于通過(guò)構(gòu)建復(fù)雜的神經(jīng)網(wǎng)絡(luò)模型,從大規(guī)模數(shù)據(jù)中自動(dòng)
    的頭像 發(fā)表于 07-03 16:06 ?2405次閱讀

    深度學(xué)習(xí)模型訓(xùn)練過(guò)程詳解

    深度學(xué)習(xí)模型訓(xùn)練是個(gè)復(fù)雜且關(guān)鍵的過(guò)程,它涉及大量的數(shù)據(jù)、計(jì)算資源和精心設(shè)計(jì)的算法。訓(xùn)練個(gè)深度
    的頭像 發(fā)表于 07-01 16:13 ?2190次閱讀

    通過(guò)強(qiáng)化學(xué)習(xí)策略進(jìn)行特征選擇

    更快更好地學(xué)習(xí)。我們的想法是找到最優(yōu)數(shù)量的特征和最有意義的特征。在本文中,我們將介紹并實(shí)現(xiàn)種新的通過(guò)強(qiáng)化學(xué)習(xí)策略的特征選擇。我們先討論強(qiáng)化學(xué)習(xí),尤其是馬爾可夫
    的頭像 發(fā)表于 06-05 08:27 ?549次閱讀
    通過(guò)<b class='flag-5'>強(qiáng)化學(xué)習(xí)</b>策略進(jìn)行特征選擇

    種利用光電容積描記(PPG)信號(hào)和深度學(xué)習(xí)模型對(duì)高血壓分類的新方法

    學(xué)習(xí)方法來(lái)對(duì)高血壓的四個(gè)階段進(jìn)行分類。這里采用的分類方法是:Alexnet、Resnet -50、VGG-16和新的模型:AvgPool_V
    發(fā)表于 05-11 20:01