r”的一個(gè)映射,第二個(gè)數(shù)據(jù) “向/p”,神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)一個(gè) “向->p”的映射,這樣一直將訓(xùn)練數(shù)據(jù)學(xué)習(xí)完,更新到最后的參數(shù),從而學(xué)習(xí)到model。" />

一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

普通神經(jīng)網(wǎng)絡(luò)MLP與RNN不得不說(shuō)的秘密

智能感知與物聯(lián)網(wǎng)技術(shù)研究所 ? 2017-12-11 09:20 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

記錄一下RNN為什么可以記錄以前歷史信息,如何從公式中體現(xiàn)出?

那么首先介紹一下為什么普通的神經(jīng)網(wǎng)絡(luò)不能記憶以前的歷史信息,然后引出RNN的相應(yīng)能力,因?yàn)槿绻胀ǖ纳窠?jīng)網(wǎng)絡(luò)能夠記錄以前的歷史信息的話,那么也就不會(huì)有RNN思想的誕生了。

1普通神經(jīng)網(wǎng)絡(luò)(MLP)

首先我們有一個(gè)任務(wù),就是進(jìn)行詞性標(biāo)注,下面有兩個(gè)訓(xùn)練數(shù)據(jù)。

他向我表白我覺(jué)得他的表白不夠真誠(chéng)

正確的詞性是:

那么將這些訓(xùn)練數(shù)據(jù)送給神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,比如第一個(gè)數(shù)據(jù) “他/r”,神經(jīng)網(wǎng)絡(luò)學(xué)習(xí) “他->r”的一個(gè)映射,第二個(gè)數(shù)據(jù) “向/p”,神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)一個(gè) “向->p”的映射,這樣一直將訓(xùn)練數(shù)據(jù)學(xué)習(xí)完,更新到最后的參數(shù),從而學(xué)習(xí)到model,但是問(wèn)題來(lái)了。

學(xué)習(xí)示例圖如下:

在上面的訓(xùn)練數(shù)據(jù)中,有些詞語(yǔ)的詞性并不是唯一的,比如“表白”一詞,在“他向我表白”這句話中作為動(dòng)詞v,在“我覺(jué)得他的表白不夠真誠(chéng)”這句話中作為名詞n,所以對(duì)于神經(jīng)網(wǎng)絡(luò)來(lái)說(shuō),它是會(huì)學(xué)亂的。

一下子神經(jīng)網(wǎng)絡(luò)要學(xué)習(xí)“表白”是動(dòng)詞,一下子又要學(xué)習(xí)“表白”是名詞,神經(jīng)網(wǎng)絡(luò)也很無(wú)辜呀,它沒(méi)有能力來(lái)處理什么情況下應(yīng)該將“表白”判別為名詞,什么情況下降“表白”判斷為動(dòng)詞,因?yàn)樯窠?jīng)網(wǎng)絡(luò)學(xué)習(xí)不到周圍的語(yǔ)境。喂給神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)和之前的數(shù)據(jù)并沒(méi)有聯(lián)系。

所以我們這個(gè)時(shí)候就需要一個(gè)能夠記憶以前歷史信息的網(wǎng)絡(luò)出現(xiàn),比如在第一句話中,碰到表達(dá)一詞的時(shí)候,我知道他前面的詞是“我”/代詞,那么代詞后面的表白作為動(dòng)詞的概率就遠(yuǎn)大于名詞的表白,當(dāng)然RNN還能夠看到他前面好幾個(gè)詞語(yǔ),理論上rnn可以記憶當(dāng)前詞語(yǔ)前面的任何詞。

同理在第二句話的時(shí)候,碰到“表白”一詞的時(shí)候,我們的網(wǎng)絡(luò)能夠知道他前面的詞是“的”/助詞,那么助詞后面的“表白”作為名詞的概率就遠(yuǎn)大于動(dòng)詞的”表白“。

所以我們希望能夠有一個(gè)網(wǎng)絡(luò)在預(yù)測(cè)當(dāng)前任務(wù)的時(shí)候,能夠記憶以前的知識(shí)幫助當(dāng)前的任務(wù)完成,這樣RNN就閃亮登場(chǎng)了,可能有些小伙伴會(huì)說(shuō),它存在很多問(wèn)題,比如不能長(zhǎng)期記憶,但是這篇文章不介紹,但是無(wú)論如何,RNN提供了這種問(wèn)題解決的可能。

2循環(huán)神經(jīng)網(wǎng)絡(luò)記錄歷史信息RNN

首先來(lái)介紹一下RNN

首先看一個(gè)簡(jiǎn)單的循環(huán)神經(jīng)網(wǎng)絡(luò)如,它由輸入層、一個(gè)隱藏層和一個(gè)輸出層組成:

不知道初學(xué)的同學(xué)能夠理解這個(gè)圖嗎,反正我剛開(kāi)始學(xué)習(xí)的時(shí)候是懵逼的,每個(gè)結(jié)點(diǎn)到底代表的是一個(gè)值的輸入,還是說(shuō)一層的向量結(jié)點(diǎn)集合,如何隱藏層又可以連接到自己,等等這些疑惑~這個(gè)圖是一個(gè)比較抽象的圖。

我們現(xiàn)在這樣來(lái)理解,如果把上面有W的那個(gè)帶箭頭的圈去掉,它就變成了最普通的全連接神經(jīng)網(wǎng)絡(luò)。x是一個(gè)向量,它表示輸入層的值(這里面沒(méi)有畫(huà)出來(lái)表示神經(jīng)元節(jié)點(diǎn)的圓圈);s是一個(gè)向量,它表示隱藏層的值(這里隱藏層面畫(huà)了一個(gè)節(jié)點(diǎn),你也可以想象這一層其實(shí)是多個(gè)節(jié)點(diǎn),節(jié)點(diǎn)數(shù)與向量s的維度相同);

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • rnn
    rnn
    +關(guān)注

    關(guān)注

    0

    文章

    89

    瀏覽量

    7114

原文標(biāo)題:【干貨】循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)為什么能夠記憶歷史信息

文章出處:【微信號(hào):tyutcsplab,微信公眾號(hào):智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    有關(guān)充電電池不得不說(shuō)的幾個(gè)問(wèn)題

    有關(guān)充電電池不得不說(shuō)的幾個(gè)問(wèn)題 1,認(rèn)識(shí)記憶效應(yīng)電池記憶效應(yīng)是指電池的可逆失效,即電池失效后可重新回復(fù)的性能。記憶效應(yīng)是指電池長(zhǎng)時(shí)間經(jīng)
    發(fā)表于 11-05 16:24 ?1242次閱讀

    什么是RNN (循環(huán)神經(jīng)網(wǎng)絡(luò))?

    循環(huán)神經(jīng)網(wǎng)絡(luò) (RNN) 是一種深度學(xué)習(xí)結(jié)構(gòu),它使用過(guò)去的信息來(lái)提高網(wǎng)絡(luò)處理當(dāng)前和將來(lái)輸入的性能。RNN 的獨(dú)特之處在于該網(wǎng)絡(luò)包含隱藏狀態(tài)和
    發(fā)表于 02-29 14:56 ?4966次閱讀
    什么是<b class='flag-5'>RNN</b> (循環(huán)<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>)?

    遞歸神經(jīng)網(wǎng)絡(luò)RNN

    遞歸神經(jīng)網(wǎng)絡(luò)RNNRNN是最強(qiáng)大的模型之一,它使我們能夠開(kāi)發(fā)如分類、序列數(shù)據(jù)標(biāo)注、生成文本序列(例如預(yù)測(cè)下一輸入詞的SwiftKey keyboard應(yīng)用程序),以及將一個(gè)序列轉(zhuǎn)換為另一個(gè)序列
    發(fā)表于 07-20 09:27

    筆記本電池不得不說(shuō)秘密

    筆記本電池不得不說(shuō)秘密 前段時(shí)間APPLE、DELL、SONY、HP等國(guó)際知名PC巨頭的筆記本電池紛紛出現(xiàn)了種種問(wèn)題而召回原廠?今天筆者想在這里延伸
    發(fā)表于 10-28 09:18 ?593次閱讀

    筆記本電池不得不說(shuō)秘密

    筆記本電池不得不說(shuō)秘密      前段時(shí)間APPLE、DELL、SONY、HP等國(guó)際知名PC巨頭的筆記本電池紛紛出現(xiàn)了種種問(wèn)題而召回原廠?今天筆者想在這里延
    發(fā)表于 11-10 15:02 ?533次閱讀

    循環(huán)神經(jīng)網(wǎng)絡(luò)RNN)的詳細(xì)介紹

    在循環(huán)神經(jīng)網(wǎng)絡(luò)可以用于文本生成、機(jī)器翻譯還有看圖描述等,在這些場(chǎng)景中很多都出現(xiàn)了RNN的身影。
    的頭像 發(fā)表于 05-11 14:58 ?1.4w次閱讀
    循環(huán)<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>(<b class='flag-5'>RNN</b>)的詳細(xì)介紹

    三個(gè)最流行神經(jīng)網(wǎng)絡(luò)

    在本文中,我們將了解深度神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)知識(shí)和三個(gè)最流行神經(jīng)網(wǎng)絡(luò):多層神經(jīng)網(wǎng)絡(luò)(MLP),卷積神經(jīng)網(wǎng)絡(luò)(CNN)和遞歸
    發(fā)表于 05-15 14:19 ?1763次閱讀
    三個(gè)最流行<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>

    rnn神經(jīng)網(wǎng)絡(luò)基本原理

    RNN(Recurrent Neural Network,循環(huán)神經(jīng)網(wǎng)絡(luò))是一種具有循環(huán)結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò),它能夠處理序列數(shù)據(jù),并且能夠捕捉時(shí)間序列數(shù)據(jù)中的動(dòng)態(tài)特征。RNN在自然語(yǔ)言處理、語(yǔ)
    的頭像 發(fā)表于 07-04 15:02 ?1265次閱讀

    RNN神經(jīng)網(wǎng)絡(luò)適用于什么

    RNN(Recurrent Neural Network,循環(huán)神經(jīng)網(wǎng)絡(luò))是一種具有循環(huán)結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò),它可以處理序列數(shù)據(jù),具有記憶功能。RNN在許多領(lǐng)域都有廣泛的應(yīng)用,以下是一些
    的頭像 發(fā)表于 07-04 15:04 ?1558次閱讀

    rnn神經(jīng)網(wǎng)絡(luò)模型原理

    RNN(Recurrent Neural Network,循環(huán)神經(jīng)網(wǎng)絡(luò))是一種具有循環(huán)結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò),它能夠處理序列數(shù)據(jù),具有記憶功能。RNN在自然語(yǔ)言處理、語(yǔ)音識(shí)別、時(shí)間序列預(yù)測(cè)等領(lǐng)
    的頭像 發(fā)表于 07-04 15:40 ?1112次閱讀

    rnn是什么神經(jīng)網(wǎng)絡(luò)

    RNN(Recurrent Neural Network,循環(huán)神經(jīng)網(wǎng)絡(luò))是一種具有循環(huán)連接的神經(jīng)網(wǎng)絡(luò),它能夠處理序列數(shù)據(jù),并且具有記憶能力。與傳統(tǒng)的前饋神經(jīng)網(wǎng)絡(luò)(Feedforward
    的頭像 發(fā)表于 07-05 09:49 ?1386次閱讀

    rnn是什么神經(jīng)網(wǎng)絡(luò)模型

    RNN(Recurrent Neural Network,循環(huán)神經(jīng)網(wǎng)絡(luò))是一種具有循環(huán)結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò)模型,它能夠處理序列數(shù)據(jù),并對(duì)序列中的元素進(jìn)行建模。RNN在自然語(yǔ)言處理、語(yǔ)音識(shí)別、
    的頭像 發(fā)表于 07-05 09:50 ?1216次閱讀

    rnn是遞歸神經(jīng)網(wǎng)絡(luò)還是循環(huán)神經(jīng)網(wǎng)絡(luò)

    RNN(Recurrent Neural Network)是循環(huán)神經(jīng)網(wǎng)絡(luò),而非遞歸神經(jīng)網(wǎng)絡(luò)。循環(huán)神經(jīng)網(wǎng)絡(luò)是一種具有時(shí)間序列特性的神經(jīng)網(wǎng)絡(luò),能
    的頭像 發(fā)表于 07-05 09:52 ?1047次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)RNN的區(qū)別

    在深度學(xué)習(xí)領(lǐng)域,循環(huán)神經(jīng)網(wǎng)絡(luò)RNN)因其能夠處理序列數(shù)據(jù)而受到廣泛關(guān)注。然而,傳統(tǒng)RNN在處理長(zhǎng)序列時(shí)存在梯度消失或梯度爆炸的問(wèn)題。為了解決這一問(wèn)題,LSTM(長(zhǎng)短期記憶)神經(jīng)網(wǎng)絡(luò)應(yīng)
    的頭像 發(fā)表于 11-13 09:58 ?1218次閱讀

    RNN模型與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的區(qū)別

    神經(jīng)網(wǎng)絡(luò)是機(jī)器學(xué)習(xí)領(lǐng)域中的一種強(qiáng)大工具,它們能夠模擬人腦處理信息的方式。隨著技術(shù)的發(fā)展,神經(jīng)網(wǎng)絡(luò)的類型也在不斷增加,其中循環(huán)神經(jīng)網(wǎng)絡(luò)RNN)和傳統(tǒng)
    的頭像 發(fā)表于 11-15 09:42 ?1133次閱讀