一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

RNN以及LSTM

新機器視覺 ? 來源:機器學習算法那些事 ? 作者:機器學習算法那些 ? 2022-03-15 10:44 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

熟悉深度學習的朋友知道,LSTM是一種RNN模型,可以方便地處理時間序列數(shù)據(jù),在NLP等領(lǐng)域有廣泛應(yīng)用。

在看了臺大李宏毅教授的深度學習視頻后,特別是介紹的第一部分RNN以及LSTM,整個人醍醐灌頂。

0. 從RNN說起

循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)是一種用于處理序列數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)。相比一般的神經(jīng)網(wǎng)絡(luò)來說,他能夠處理序列變化的數(shù)據(jù)。比如某個單詞的意思會因為上文提到的內(nèi)容不同而有不同的含義,RNN就能夠很好地解決這類問題。

1. 普通RNN

先簡單介紹一下一般的RNN。其主要形式如下圖所示(圖片均來自臺大李宏毅教授的PPT):

ba5cb7b8-a355-11ec-952b-dac502259ad0.png

這里:

為當前狀態(tài)下數(shù)據(jù)的輸入,表示接收到的上一個節(jié)點的輸入。

為當前節(jié)點狀態(tài)下的輸出,而為傳遞到下一個節(jié)點的輸出。

通過上圖的公式可以看到,輸出 h'與 x 和 h 的值都相關(guān)。

而 y 則常常使用 h'投入到一個線性層(主要是進行維度映射)然后使用softmax進行分類得到需要的數(shù)據(jù)。

對這里的y如何通過 h'計算得到往往看具體模型的使用方式。

通過序列形式的輸入,我們能夠得到如下形式的RNN。

ba767a90-a355-11ec-952b-dac502259ad0.png

2. LSTM

2.1 什么是LSTM

長短期記憶(Long short-term memory, LSTM)是一種特殊的RNN,主要是為了解決長序列訓練過程中的梯度消失和梯度爆炸問題。簡單來說,就是相比普通的RNN,LSTM能夠在更長的序列中有更好的表現(xiàn)。

LSTM結(jié)構(gòu)(圖右)和普通RNN的主要輸入輸出區(qū)別如下所示。

ba9e1884-a355-11ec-952b-dac502259ad0.png

相比RNN只有一個傳遞狀態(tài),LSTM有兩個傳輸狀態(tài),一個(cell state),和一個(hidden state)。RNN中的等價于LSTM中的。

其中對于傳遞下去的改變得很慢,通常輸出的是上一個狀態(tài)傳過來的加上一些數(shù)值。

而則在不同節(jié)點下往往會有很大的區(qū)別。

2.2 深入LSTM結(jié)構(gòu)

下面具體對LSTM的內(nèi)部結(jié)構(gòu)來進行剖析。

首先使用LSTM的當前輸入和上一個狀態(tài)傳遞下來的拼接訓練得到四個狀態(tài)。

baaf8b0a-a355-11ec-952b-dac502259ad0.png

其中,,是由拼接向量乘以權(quán)重矩陣之后,再通過一個 sigmoid激活函數(shù)轉(zhuǎn)換成0到1之間的數(shù)值,來作為一種門控狀態(tài)。而則是將結(jié)果通過一個 tanh激活函數(shù)將轉(zhuǎn)換成-1到1之間的值(這里使用 tanh是因為這里是將其做為輸入數(shù)據(jù),而不是門控信號)。

下面開始進一步介紹這四個狀態(tài)在LSTM內(nèi)部的使用(敲黑板)

bac692d2-a355-11ec-952b-dac502259ad0.png

是Hadamard Product,也就是操作矩陣中對應(yīng)的元素相乘,因此要求兩個相乘矩陣是同型的。則代表進行矩陣加法。

LSTM內(nèi)部主要有三個階段:

1. 忘記階段。這個階段主要是對上一個節(jié)點傳進來的輸入進行選擇性忘記。簡單來說就是會 “忘記不重要的,記住重要的”。

具體來說是通過計算得到的(f表示forget)來作為忘記門控,來控制上一個狀態(tài)的哪些需要留哪些需要忘。

2. 選擇記憶階段。這個階段將這個階段的輸入有選擇性地進行“記憶”。主要是會對輸入進行選擇記憶。哪些重要則著重記錄下來,哪些不重要,則少記一些。當前的輸入內(nèi)容由前面計算得到的表示。而選擇的門控信號則是由(i代表information)來進行控制。

將上面兩步得到的結(jié)果相加,即可得到傳輸給下一個狀態(tài)的。也就是上圖中的第一個公式。

3. 輸出階段。這個階段將決定哪些將會被當成當前狀態(tài)的輸出。主要是通過來進行控制的。并且還對上一階段得到的進行了放縮(通過一個tanh激活函數(shù)進行變化)。

與普通RNN類似,輸出往往最終也是通過變化得到。

3. 總結(jié)

以上,就是LSTM的內(nèi)部結(jié)構(gòu)。通過門控狀態(tài)來控制傳輸狀態(tài),記住需要長時間記憶的,忘記不重要的信息;而不像普通的RNN那樣只能夠“呆萌”地僅有一種記憶疊加方式。對很多需要“長期記憶”的任務(wù)來說,尤其好用。

但也因為引入了很多內(nèi)容,導(dǎo)致參數(shù)變多,也使得訓練難度加大了很多。因此很多時候我們往往會使用效果和LSTM相當?shù)珔?shù)更少的GRU來構(gòu)建大訓練量的模型。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4812

    瀏覽量

    103281
  • LSTM
    +關(guān)注

    關(guān)注

    0

    文章

    60

    瀏覽量

    4026

原文標題:人人都能看懂的LSTM

文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    FPGA也能做RNN

    ,GPU只能提供有限的并行性。針對這個問題,普渡大學的研究人員提出了一種LSTM在Zynq 7020 FPGA的硬件實現(xiàn)方案,該方案在FPGA中實現(xiàn)了2層128個隱藏單元的RNN,并且使用字符級語言模型
    發(fā)表于 07-31 10:11

    放棄 RNNLSTM 吧,它們真的不好用

    2014 年 RNN/LSTM 起死回生。自此,RNN/LSTM 及其變種逐漸被廣大用戶接受和認可。起初,LSTM
    的頭像 發(fā)表于 04-25 09:43 ?2.1w次閱讀

    RNN及其變體LSTM和GRU

    下圖為一個雙層LSTM對三個不同的單詞的反應(yīng)分布。該LSTM每層有600個細胞狀態(tài)單元,基于Penn Tree Bank(PTB)數(shù)據(jù)集訓練。我們可以看到,模型對介詞(“for”)和代詞(“he”、“she”)的反應(yīng)模式大不相同。
    的頭像 發(fā)表于 06-30 11:11 ?1.7w次閱讀
    <b class='flag-5'>RNN</b>及其變體<b class='flag-5'>LSTM</b>和GRU

    循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)和(LSTM)初學者指南

    最近,有一篇入門文章引發(fā)了不少關(guān)注。文章中詳細介紹了循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),及其變體長短期記憶(LSTM)背后的原理。
    發(fā)表于 02-05 13:43 ?1154次閱讀

    一種具有強記憶力的 E3D-LSTM網(wǎng)絡(luò),強化了LSTM的長時記憶能力

    標準 LSTM 單元結(jié)構(gòu) 首先簡要介紹一下標準 LSTM 結(jié)構(gòu),和 RNN 相比 LSTM 增加了更復(fù)雜的門結(jié)構(gòu)(圖中黃色模塊),主要解決 RN
    的頭像 發(fā)表于 09-01 07:35 ?1.1w次閱讀
    一種具有強記憶力的 E3D-<b class='flag-5'>LSTM</b>網(wǎng)絡(luò),強化了<b class='flag-5'>LSTM</b>的長時記憶能力

    循環(huán)神經(jīng)網(wǎng)絡(luò)LSTM為何如此有效?

    長短期記憶網(wǎng)絡(luò)(LSTM),作為一種改進之后的循環(huán)神經(jīng)網(wǎng)絡(luò),不僅能夠解決 RNN無法處理長距離的依賴的問題,還能夠解決神經(jīng)網(wǎng)絡(luò)中常見的梯度爆炸或梯度消失等問題,在處理序列數(shù)據(jù)方面非常有效。 有效背后
    的頭像 發(fā)表于 03-19 11:22 ?3158次閱讀
    循環(huán)神經(jīng)網(wǎng)絡(luò)<b class='flag-5'>LSTM</b>為何如此有效?

    深度分析RNN的模型結(jié)構(gòu),優(yōu)缺點以及RNN模型的幾種應(yīng)用

    強大的Bert模型家族,都是站在RNN的肩上,不斷演化、變強的。 這篇文章,闡述了RNN的方方面面,包括模型結(jié)構(gòu),優(yōu)缺點,RNN模型的幾種應(yīng)用,RNN常使用的激活函數(shù),
    的頭像 發(fā)表于 05-13 10:47 ?2.5w次閱讀
    深度分析<b class='flag-5'>RNN</b>的模型結(jié)構(gòu),優(yōu)缺點<b class='flag-5'>以及</b><b class='flag-5'>RNN</b>模型的幾種應(yīng)用

    如何理解RNNLSTM神經(jīng)網(wǎng)絡(luò)

    在深入探討RNN(Recurrent Neural Network,循環(huán)神經(jīng)網(wǎng)絡(luò))與LSTM(Long Short-Term Memory,長短期記憶網(wǎng)絡(luò))神經(jīng)網(wǎng)絡(luò)之前,我們首先需要明確它們
    的頭像 發(fā)表于 07-09 11:12 ?1309次閱讀

    LSTM模型的基本組成

    長短期記憶網(wǎng)絡(luò)(Long Short-Term Memory, LSTM)是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)架構(gòu),它在處理序列數(shù)據(jù)時能夠捕捉長期依賴關(guān)系,有效解決了傳統(tǒng)RNN在處理長序列時容易出現(xiàn)
    的頭像 發(fā)表于 07-10 17:01 ?3101次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)的基本原理 如何實現(xiàn)LSTM神經(jīng)網(wǎng)絡(luò)

    LSTM(長短期記憶)神經(jīng)網(wǎng)絡(luò)是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),它能夠?qū)W習長期依賴信息。在處理序列數(shù)據(jù)時,如時間序列分析、自然語言處理等,LSTM因其能夠有效地捕捉時間序列中的長期依賴關(guān)系而受到
    的頭像 發(fā)表于 11-13 09:53 ?1515次閱讀

    使用LSTM神經(jīng)網(wǎng)絡(luò)處理自然語言處理任務(wù)

    自然語言處理(NLP)是人工智能領(lǐng)域的一個重要分支,它旨在使計算機能夠理解、解釋和生成人類語言。隨著深度學習技術(shù)的發(fā)展,特別是循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)及其變體——長短期記憶(LSTM)網(wǎng)絡(luò)的出現(xiàn)
    的頭像 發(fā)表于 11-13 09:56 ?1098次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)的優(yōu)缺點分析

    長短期記憶(Long Short-Term Memory, LSTM)神經(jīng)網(wǎng)絡(luò)是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),由Hochreiter和Schmidhuber在1997年提出。LSTM因其在處理
    的頭像 發(fā)表于 11-13 09:57 ?4754次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)RNN的區(qū)別

    在深度學習領(lǐng)域,循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)因其能夠處理序列數(shù)據(jù)而受到廣泛關(guān)注。然而,傳統(tǒng)RNN在處理長序列時存在梯度消失或梯度爆炸的問題。為了解決這一問題,LSTM(長短期記憶)神經(jīng)網(wǎng)絡(luò)應(yīng)運而生。 循環(huán)
    的頭像 發(fā)表于 11-13 09:58 ?1163次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)的調(diào)參技巧

    長短時記憶網(wǎng)絡(luò)(Long Short-Term Memory, LSTM)是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),它能夠?qū)W習長期依賴信息。在實際應(yīng)用中,LSTM網(wǎng)絡(luò)的調(diào)參是一個復(fù)雜且關(guān)鍵的過程,直接影響
    的頭像 發(fā)表于 11-13 10:01 ?1807次閱讀

    RNNLSTM模型的比較分析

    RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))與LSTM(長短期記憶網(wǎng)絡(luò))模型在深度學習領(lǐng)域都具有處理序列數(shù)據(jù)的能力,但它們在結(jié)構(gòu)、功能和應(yīng)用上存在顯著的差異。以下是對RNNLSTM模型的比較分析: 一、基
    的頭像 發(fā)表于 11-15 10:05 ?2147次閱讀