一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于記憶的神經(jīng)網(wǎng)絡(luò)通過(guò)利用長(zhǎng)時(shí)間記憶信息的能力來(lái)建模時(shí)序數(shù)據(jù)

DPVg_AI_era ? 來(lái)源:未知 ? 作者:李倩 ? 2018-07-03 10:44 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

傳統(tǒng)的記憶架構(gòu)做關(guān)系推理時(shí)有困難,DeepMind和倫敦大學(xué)學(xué)院的這篇論文提出關(guān)系推理模塊RMC,能夠在序列信息中執(zhí)行關(guān)系推理,在WikiText-103, Project Gutenberg 和 GigaWord 數(shù)據(jù)集上達(dá)到了當(dāng)前最佳性能。

基于記憶的神經(jīng)網(wǎng)絡(luò)通過(guò)利用長(zhǎng)時(shí)間記憶信息的能力來(lái)建模時(shí)序數(shù)據(jù)。然而,目前還不清楚它們是否有能力利用它們記得的信息進(jìn)行復(fù)雜的關(guān)系推理。

在這篇論文中,DeepMind和倫敦大學(xué)學(xué)院的研究人員首先證實(shí)一種直覺(jué)想法,即標(biāo)準(zhǔn)的記憶架構(gòu)在一些涉及關(guān)系推理的任務(wù)上很困難。然后,研究者通過(guò)使用一個(gè)新的記憶模塊——Relational Memory Core(RMC)——來(lái)改進(jìn)這種缺陷,該模塊采用multi-head dot product attention來(lái)允許記憶交互。

最后,研究者在一系列任務(wù)上測(cè)試RMC,這些任務(wù)可以從跨序列信息的更強(qiáng)大的關(guān)系推理中獲益,并且在RL領(lǐng)域(例如Mini PacMan)、程序評(píng)估和語(yǔ)言建模中顯示出巨大的受益,在WikiText-103、Project Gutenberg和GigaWord數(shù)據(jù)集上獲得state-of-the-art的結(jié)果。

關(guān)系記憶核心RMC

人類使用復(fù)雜的記憶系統(tǒng)來(lái)訪問(wèn)和推理重要的信息,不管這些信息最初是什么時(shí)候被感知到的。在神經(jīng)網(wǎng)絡(luò)研究中,許多成功的序列數(shù)據(jù)建模方法也使用了記憶系統(tǒng)(memory systems),例如LSTM和記憶增強(qiáng)的神經(jīng)網(wǎng)絡(luò)(memory-augmented neural networks)。通過(guò)增強(qiáng)記憶容量、隨時(shí)間的有限計(jì)算成本以及處理梯度消失的能力,這些網(wǎng)絡(luò)學(xué)會(huì)了跨時(shí)間關(guān)聯(lián)事件,以便熟練地存儲(chǔ)和檢索信息。

在這里,我們建議在考慮存儲(chǔ)和檢索的同時(shí)考慮記憶交互,這是卓有成效的。雖然目前的模型可以學(xué)習(xí)劃分和關(guān)聯(lián)分布式的、矢量化的記憶,但它們并不明顯地傾向于這樣做。我們假設(shè),這樣的偏見(jiàn)可以讓一個(gè)模型更好地理解記憶是如何關(guān)聯(lián)的,因此可以讓它更好地進(jìn)行關(guān)系推理。

首先,我們通過(guò)開(kāi)發(fā)一個(gè)演示任務(wù)來(lái)強(qiáng)調(diào)順序信息的關(guān)系推理,證明當(dāng)前的模型在這個(gè)領(lǐng)域中存在困難。使用新的關(guān)系記憶核心( Relational Memory Core,RMC),利用multi-head dot product attention讓記憶彼此交互,我們解決并分析了這個(gè)問(wèn)題。然后,我們將RMC應(yīng)用到一系列任務(wù)中,這些任務(wù)可能會(huì)從更顯式的memory-memory 交互中獲益,因此,可能會(huì)增加隨時(shí)間推移的的關(guān)系推理能力:在Wikitext-103、Project Gutenberg和GigaWord數(shù)據(jù)集中,部分觀察到的強(qiáng)化學(xué)習(xí)任務(wù)、程序評(píng)估和語(yǔ)言建模。

關(guān)系推理(Relational reasoning)

我們認(rèn)為關(guān)系推理是理解實(shí)體連接的方式的過(guò)程,并利用這種理解來(lái)實(shí)現(xiàn)更高階的目標(biāo)。例如,考慮對(duì)各種樹(shù)與公園長(zhǎng)椅之間的距離進(jìn)行排序:將實(shí)體(樹(shù)和長(zhǎng)椅)之間的關(guān)系(距離)進(jìn)行比較,以得到解決方案;如果我們單獨(dú)考慮每個(gè)實(shí)體的屬性(位置),則無(wú)法得到解決方案。

由于我們通常可以很流暢地定義什么構(gòu)成“實(shí)體”(entity)或“關(guān)系”(relation),因此我們可以想象一系列的神經(jīng)網(wǎng)絡(luò)誘導(dǎo)的偏見(jiàn),可以用關(guān)系推理的語(yǔ)言表達(dá)出來(lái)。例如,可以用卷積核來(lái)計(jì)算一個(gè)感受野內(nèi)的實(shí)體(像素)的關(guān)系(線性組合)。

在時(shí)域(temporal domain)中,關(guān)系推理可以包含在不同時(shí)間點(diǎn)比較和對(duì)比信息的能力。這里,注意力機(jī)制隱式地執(zhí)行某種形式的關(guān)系推理;如果先前的隱藏狀態(tài)被解釋為entity,那么使用注意力來(lái)計(jì)算實(shí)體的加權(quán)和有助于消除RNN中存在的局部性偏差。

由于我們當(dāng)前的架構(gòu)解決復(fù)雜的時(shí)序任務(wù),因此它們必須具備一些時(shí)間關(guān)系推理的能力。然而,目前還不清楚他們的歸納偏差是否受到限制,以及這些限制是否可以暴露在要求特定類型的時(shí)間關(guān)系推理的任務(wù)中。

模型

我們的指導(dǎo)設(shè)計(jì)原則是提供一個(gè)架構(gòu)的主干,在這個(gè)基礎(chǔ)上,模型可以學(xué)習(xí)如何劃分信息,以及如何計(jì)算劃分的信息之間的交互。為了實(shí)現(xiàn)這一點(diǎn),我們從LSTM、 memory-augmented神經(jīng)網(wǎng)絡(luò)和non-local網(wǎng)絡(luò)(特別是Transformer seq2seq模型)組裝構(gòu)建塊。與記憶增強(qiáng)架構(gòu)相似,我們考慮一組固定的memory slots;但是,我們?cè)试S使用注意里機(jī)制在memory slots之間進(jìn)行交互。與之前的工作相反,我們?cè)趩蝹€(gè)時(shí)間步上在記憶之間應(yīng)用注意力,而不是跨過(guò)在先前的觀察中計(jì)算出來(lái)的所有先前的表征。

圖1:Relational Memory Core

圖2:任務(wù)

我們?cè)谝唤M監(jiān)督學(xué)習(xí)和強(qiáng)化學(xué)習(xí)任務(wù)中測(cè)試RMC。值得注意的是N?? Farthest的任務(wù)和語(yǔ)言建模。在前者中,解決方案需要顯式的關(guān)系推理,因?yàn)槟P捅仨殞?duì)向量之間的距離關(guān)系進(jìn)行排序,而不是對(duì)向量本身排序。后者在大量自然數(shù)據(jù)上測(cè)試模型,并允許我們將性能與經(jīng)過(guò)良好調(diào)優(yōu)的模型進(jìn)行比較。

實(shí)驗(yàn)

這里簡(jiǎn)要介紹應(yīng)用RMC的實(shí)驗(yàn)任務(wù),具體每個(gè)任務(wù)的詳細(xì)信息以及模型的超參數(shù)設(shè)置等請(qǐng)閱讀原論文。

說(shuō)明性監(jiān)督任務(wù)

N?? Farthest

第N個(gè)最遠(yuǎn)的任務(wù)是為了強(qiáng)調(diào)跨時(shí)間的關(guān)系推理能力。輸入是隨機(jī)抽樣的向量序列,目標(biāo)是對(duì)形式問(wèn)題的回答:“距離向量m的第n個(gè)最遠(yuǎn)的向量是什么?”,其中向量的值、它們的ID、n和m都是每個(gè)序列隨機(jī)抽樣的。我們強(qiáng)調(diào)模型必須對(duì)向量之間的距離關(guān)系進(jìn)行排序,而不是對(duì)向量本身。

程序評(píng)估

Learning to Execute(LTE)數(shù)據(jù)集由圖靈完整的偽代碼編程語(yǔ)言中的算法片段組成,可分為三類:添加、控制和完整程序。輸入是表示這些代碼片段的字母數(shù)字詞匯表上的字符序列,目標(biāo)是一個(gè)數(shù)字字符序列,它是給定編程輸入的執(zhí)行輸出。考慮到這些片斷涉及變量的符號(hào)操作,我們認(rèn)為它可能會(huì)影響模型的關(guān)系推理能力;由于符號(hào)運(yùn)算符可以被解釋為在操作數(shù)上定義一個(gè)關(guān)系,成功的學(xué)習(xí)可以反映對(duì)這個(gè)關(guān)系的理解。為了評(píng)估經(jīng)典序列任務(wù)的模型性能,我們還對(duì)記憶任務(wù)進(jìn)行了評(píng)估,在這些任務(wù)中,輸出只是輸入的一種排列形式,而不是來(lái)自一組操作指令的評(píng)估。

強(qiáng)化學(xué)習(xí)

Mini Pacman with viewport

我們遵循文獻(xiàn)[23]中的Mini Pacman的表述。簡(jiǎn)而言之, agent在被ghosts追趕時(shí)在迷宮中導(dǎo)航以收集食物。我們用一個(gè)視圖(viewport)來(lái)實(shí)現(xiàn)這個(gè)任務(wù):圍繞agent的5×5窗口,包含感知輸入。因此,任務(wù)是部分可觀察的。agent必須預(yù)測(cè)記憶中g(shù)hosts的動(dòng)態(tài),并據(jù)此計(jì)劃導(dǎo)航,同時(shí)也要根據(jù)被拾取的食物的記憶信息。 該任務(wù)要求在記憶空間中進(jìn)行關(guān)系推理。

語(yǔ)言建模

最后,我們調(diào)查了基于詞匯的語(yǔ)言建模任務(wù)。

結(jié)果

圖3:模型分析

每行描述了特定序列的每個(gè)時(shí)間步的注意力矩陣。下面的文本闡明了序列的特定任務(wù),該序列被編碼并作為輸入提供給模型。我們用紅色標(biāo)記任務(wù)中引用的矢量。

表1:測(cè)試程序評(píng)估和記憶任務(wù)的每個(gè)字符的準(zhǔn)確性。

表2:WikiText-103、Project Gutenberg和GigaWord v5數(shù)據(jù)集上的驗(yàn)證和測(cè)試?yán)Щ蠖?/p>

總的來(lái)說(shuō),我們的結(jié)果顯示,記憶交互的顯式建模還提高強(qiáng)化學(xué)習(xí)任務(wù),以及程序評(píng)估、比較推理和語(yǔ)言建模的性能,這表明在遞歸神經(jīng)網(wǎng)絡(luò)中加入關(guān)系推理能力的價(jià)值。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:DeepMind提出關(guān)系RNN:構(gòu)建關(guān)系推理模塊,強(qiáng)化學(xué)習(xí)利器

文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    神經(jīng)網(wǎng)絡(luò)教程(李亞非)

    記憶神經(jīng)網(wǎng)絡(luò)  7.1 聯(lián)想記憶基本特點(diǎn)  7.2 線性聯(lián)想記憶LAM模型  7.3 雙向聯(lián)想記憶BAM模型  7.4
    發(fā)表于 03-20 11:32

    AI知識(shí)科普 | 從無(wú)人相信到萬(wàn)人追捧的神經(jīng)網(wǎng)絡(luò)

    的復(fù)雜程度,通過(guò)調(diào)整內(nèi)部大量節(jié)點(diǎn)之間相互連接的關(guān)系,從而達(dá)到處理信息的目的,并具有自學(xué)習(xí)和自適應(yīng)的能力。簡(jiǎn)單來(lái)說(shuō),就是通過(guò)大量的樣本訓(xùn)練神經(jīng)網(wǎng)絡(luò)
    發(fā)表于 06-05 10:11

    非局部神經(jīng)網(wǎng)絡(luò),打造未來(lái)神經(jīng)網(wǎng)絡(luò)基本組件

    `將非局部計(jì)算作為獲取長(zhǎng)時(shí)記憶的通用模塊,提高神經(jīng)網(wǎng)絡(luò)性能在深度神經(jīng)網(wǎng)絡(luò)中,獲取長(zhǎng)時(shí)記憶(long-range dependency)至關(guān)重要。對(duì)于序列
    發(fā)表于 11-12 14:52

    記憶神經(jīng)網(wǎng)絡(luò)的聯(lián)想記憶的實(shí)驗(yàn)演示_英文版

    記憶神經(jīng)網(wǎng)絡(luò)的聯(lián)想記憶的實(shí)驗(yàn)演示_英文版
    發(fā)表于 09-26 16:31 ?0次下載

    基于記憶神經(jīng)網(wǎng)絡(luò)研究

    首先。根據(jù)記憶神經(jīng)網(wǎng)絡(luò)訓(xùn)練形式的不同。介紹了強(qiáng)監(jiān)督模型和弱監(jiān)督模型的結(jié)構(gòu)特征和各自應(yīng)用場(chǎng)景以及處理方式,總結(jié)了兩類主要模型的優(yōu)缺點(diǎn):隨后。對(duì)兩類模型的發(fā)展和應(yīng)用(包括模型創(chuàng)新和應(yīng)用創(chuàng)新1進(jìn)行了簡(jiǎn)要
    發(fā)表于 12-25 14:16 ?1次下載

    一種改進(jìn)的前饋序列記憶神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

    最早提出的FSMN的模型結(jié)構(gòu)如圖1(a)所示,其本質(zhì)上是一個(gè)前饋全連接神經(jīng)網(wǎng)絡(luò)通過(guò)在隱層旁添加一些記憶模塊(memory block)來(lái)對(duì)周邊的上下文
    的頭像 發(fā)表于 03-19 16:26 ?7425次閱讀
    一種改進(jìn)的前饋序列<b class='flag-5'>記憶</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>結(jié)構(gòu)

    長(zhǎng)短時(shí)記憶神經(jīng)網(wǎng)絡(luò)的算法

    通過(guò)上一篇文章[人工智能之循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)] 介紹,我們知道,RNN是一類功能強(qiáng)大的人工神經(jīng)網(wǎng)絡(luò)算法,RNN一個(gè)重要的優(yōu)點(diǎn)在于,其能夠在輸入和輸出序列之間的映射過(guò)程中利用上下文相
    發(fā)表于 06-29 14:44 ?4972次閱讀

    基于雙向長(zhǎng)短期記憶神經(jīng)網(wǎng)絡(luò)的交互注意力模型

    單獨(dú)建模的問(wèn)題,提岀了一種基于雙向長(zhǎng)短期記憶神經(jīng)網(wǎng)絡(luò)( BILSTM的交互注意力神經(jīng)網(wǎng)絡(luò)模型( BI-IAN)。該模型通過(guò) BILSTM對(duì)目
    發(fā)表于 03-24 17:18 ?28次下載
    基于雙向長(zhǎng)短期<b class='flag-5'>記憶</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的交互注意力模型

    基于神經(jīng)網(wǎng)絡(luò)和長(zhǎng)短期記憶網(wǎng)絡(luò)網(wǎng)絡(luò)入侵檢測(cè)

    針對(duì)網(wǎng)絡(luò)入侵檢測(cè)準(zhǔn)確率偏低而誤報(bào)率偏高的問(wèn)題,提出一種融合卷積神經(jīng)網(wǎng)絡(luò)(CNN)與雙向長(zhǎng)短期記憶( BILSTM)網(wǎng)絡(luò)網(wǎng)絡(luò)入侵檢測(cè)方法。對(duì)
    發(fā)表于 05-19 14:44 ?2次下載

    神經(jīng)網(wǎng)絡(luò)在數(shù)學(xué)建模中的應(yīng)用

    數(shù)學(xué)建模是一種利用數(shù)學(xué)方法和工具來(lái)描述和分析現(xiàn)實(shí)世界問(wèn)題的過(guò)程。神經(jīng)網(wǎng)絡(luò)是一種模擬人腦神經(jīng)元結(jié)構(gòu)和功能的計(jì)算模型,可以用于解決各種復(fù)雜問(wèn)題。
    的頭像 發(fā)表于 07-02 11:29 ?1824次閱讀

    循環(huán)神經(jīng)網(wǎng)絡(luò)的基本原理是什么

    結(jié)構(gòu)具有循環(huán),能夠?qū)⑶耙粋€(gè)時(shí)間步的信息傳遞到下一個(gè)時(shí)間步,從而實(shí)現(xiàn)對(duì)序列數(shù)據(jù)建模。本文將介紹循環(huán)神經(jīng)網(wǎng)
    的頭像 發(fā)表于 07-04 14:26 ?1190次閱讀

    rnn是遞歸神經(jīng)網(wǎng)絡(luò)還是循環(huán)神經(jīng)網(wǎng)絡(luò)

    : 循環(huán)神經(jīng)網(wǎng)絡(luò)的基本概念 循環(huán)神經(jīng)網(wǎng)絡(luò)是一種具有時(shí)間序列特性的神經(jīng)網(wǎng)絡(luò),它能夠處理序列數(shù)據(jù),具有記憶
    的頭像 發(fā)表于 07-05 09:52 ?1053次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)的優(yōu)缺點(diǎn)分析

    長(zhǎng)短期記憶(Long Short-Term Memory, LSTM)神經(jīng)網(wǎng)絡(luò)是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),由Hochreiter和Schmidhuber在1997年提出。LSTM因其在處理
    的頭像 發(fā)表于 11-13 09:57 ?4853次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)RNN的區(qū)別

    神經(jīng)網(wǎng)絡(luò)(RNN) RNN的基本結(jié)構(gòu) RNN是一種特殊的神經(jīng)網(wǎng)絡(luò),它能夠處理序列數(shù)據(jù)。在RNN中,每個(gè)時(shí)間步的輸入都會(huì)通過(guò)一個(gè)循環(huán)結(jié)構(gòu)傳遞到
    的頭像 發(fā)表于 11-13 09:58 ?1222次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)與工作機(jī)制

    的結(jié)構(gòu)與工作機(jī)制的介紹: 一、LSTM神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu) LSTM神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)主要包括以下幾個(gè)部分: 記憶單元(Memory Cell) : 記憶單元是LSTM
    的頭像 發(fā)表于 11-13 10:05 ?1641次閱讀