一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

放棄 RNN 和 LSTM 吧,它們真的不好用

8g3K_AI_Thinker ? 來(lái)源:未知 ? 作者:胡薇 ? 2018-04-25 09:43 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

2014 年 RNN/LSTM 起死回生。自此,RNN/LSTM 及其變種逐漸被廣大用戶接受和認(rèn)可。起初,LSTM 和 RNN 只是一種解決序列學(xué)習(xí)和序列翻譯問(wèn)題的方法(seq2seq),隨后被用于語(yǔ)音識(shí)別并有很好的效果,比如 Siri,Cortana,Alexa 等;此外,這種技術(shù)在機(jī)器翻譯領(lǐng)域也有應(yīng)用,比如 Google Translate。

2015-2016 年,新的 ResNet 和 Attention 技術(shù)出現(xiàn)。實(shí)際上,我們可以將 LSTM 理解為一種巧妙地 bypass technique,而 attention 的成功表明了 MLP(多層感知器)網(wǎng)絡(luò)可以被上下文向量影響的平均網(wǎng)絡(luò)(averaging network)所替代。

兩年過(guò)去了,我們現(xiàn)在已經(jīng)可以給出結(jié)論:

放棄 RNN 和 LSTM 吧,它們真的不好用

基于 attention 的網(wǎng)絡(luò)逐漸被越來(lái)越多的企業(yè)采用,比如 Google,F(xiàn)acebook,Salesforce 等公司都已經(jīng)開(kāi)始用基于attention的模型來(lái)替換RNN和其變種。RNN 在各種應(yīng)用場(chǎng)景下時(shí)日無(wú)多,因?yàn)橄啾然?attention 的模型,RNN 需要更多的資源來(lái)訓(xùn)練和運(yùn)行。

編者注:訓(xùn)練 RNN 和 LSTM 是非常困難的,因?yàn)橛?jì)算能力受到內(nèi)存和帶寬等的約束。這同時(shí)也是硬件設(shè)計(jì)者的噩夢(mèng),并最終限制了神經(jīng)網(wǎng)絡(luò)解決方案的適用性。簡(jiǎn)而言之,每個(gè) LSTM 單元需要 4 個(gè)線性層(MLP 層),以便每個(gè)順序時(shí)間步運(yùn)行一次。線性層需要大量的內(nèi)存帶寬才能執(zhí)行計(jì)算;由于系統(tǒng)沒(méi)有足夠的內(nèi)存帶寬將數(shù)據(jù)饋送到計(jì)算單元,實(shí)際上它們無(wú)法使用許多計(jì)算單元。添加更多的計(jì)算單元很容易,但添加更多的內(nèi)存帶寬卻很難。因此,RNN/LSTM 及其變種并不和硬件加速非常匹配,一個(gè)可能的解決方案就是讓計(jì)算在存儲(chǔ)器設(shè)備中完成。

為什么 RNN/LSTM 真的不好用?

RNN,LSTM及其變種主要使用序列處理,如下圖所示:

圖1 RNN中的序列處理

圖中的箭頭表示長(zhǎng)期信息在進(jìn)入當(dāng)前的處理單元前需要有序地進(jìn)入所有其他的處理單元。也就是說(shuō),這很容易通過(guò)多次乘小于 0 的數(shù)字來(lái)進(jìn)行破壞和攻擊,這就是梯度消失的原因。

梯度消失可以利用 LSTM 模塊來(lái)補(bǔ)救,目前的 LSTM 可是看作是多交換網(wǎng)關(guān),有點(diǎn)像 ResNet。因?yàn)?LSTM 可以繞過(guò)一些單元,對(duì)長(zhǎng)時(shí)間的步驟進(jìn)行記憶,因此 LSTM 可以一定程度上解決梯度消失的問(wèn)題。

圖2 LSTM中的序列處理

從圖2可以看出,從前面的單元傳遞來(lái)當(dāng)前單元的序列路徑依然存在。事實(shí)上,因?yàn)檫@條路徑會(huì)不斷添加并且會(huì)遺忘與之相關(guān)的路徑分支,它會(huì)變得越來(lái)越復(fù)雜。LSTM、GRU 及其變體能學(xué)習(xí)大量的長(zhǎng)期信息,但它們最多只能記住約 100s 的長(zhǎng)期信息,而不是 1000s,10000s 甚至更長(zhǎng)時(shí)間的信息。

RNN 還有一個(gè)問(wèn)題就是并不與所有硬件兼容。如果要快速訓(xùn)練 RNN,那么就需要大量的計(jì)算資源,而這正是我們?nèi)鄙俚摹H绻谠粕线\(yùn)行 RNN 模型的話,也會(huì)消耗比其他模型更多的資源。隨著語(yǔ)音轉(zhuǎn)文本需求的快速增長(zhǎng),云端的擴(kuò)展也變得更加困難。

你需要做些什么?

因?yàn)榇蠖鄶?shù)時(shí)間我們處理的都是實(shí)時(shí)的因果數(shù)據(jù)(casual data),我們想利用這些已知的數(shù)據(jù)來(lái)為之后的決策做準(zhǔn)備。那如果可以避免進(jìn)行序列處理,我們就可以找出更好的 look-ahead 和 look-back 的單元,這樣的 look-ahead/back 就叫做 neural attention 模塊。

這種補(bǔ)救方法融合了多個(gè) neural attention 模塊,組成了一個(gè)分層的 neural attention 編碼器,如圖3所示:

圖3 分層 neural attention 編碼器

還有一種更好地分析過(guò)去的方法就是用 attention 模塊把過(guò)去所有的編碼向量總結(jié)為一個(gè)上下文向量 Ct。

這里還有一個(gè) attention 模塊的分層,與神經(jīng)網(wǎng)絡(luò)和時(shí)間卷積網(wǎng)絡(luò)(Temporal convolutional network)的分層非常像。分層神經(jīng) attention 編碼器的多層 attention 能查看過(guò)去信息的一小部分,比如說(shuō) 100 個(gè)向量,而上面分層的attention模塊還能查看到 100 個(gè)下層的注意力模塊,也就是 100×100 個(gè)向量。這極大地?cái)U(kuò)展了分層神經(jīng) attention 編碼器的能力。

更重要的是將傳播向量傳輸?shù)骄W(wǎng)絡(luò)輸出所需要的路徑長(zhǎng)度:在分層網(wǎng)絡(luò)中,路徑長(zhǎng)度與 Log(N)成比例的,其中 N 是分層的層數(shù)。這與 RNN 需要執(zhí)行的T步驟形成了對(duì)照,其中 T 是需要記住的順序的最大長(zhǎng)度,而 T >> N。

Neural Turing Machines(NTM,神經(jīng)圖靈機(jī))的架構(gòu)也與圖3類(lèi)似,但是 NTM 是讓神經(jīng)網(wǎng)絡(luò)來(lái)決定通過(guò) attention 從內(nèi)存中讀取什么的。也就是說(shuō),真實(shí)的神經(jīng)網(wǎng)絡(luò)將決定哪個(gè)過(guò)去的向量對(duì)未來(lái)的決策更重要。

在內(nèi)存存儲(chǔ)方面。與 NTM 不同,上面的架構(gòu)把所有之前的表示都儲(chǔ)存在內(nèi)存里,這就會(huì)造成效率比較低的問(wèn)題。有一個(gè)解決的辦法就是增加另外一個(gè)單元來(lái)防止有相互關(guān)系的數(shù)據(jù)多次保存。當(dāng)前科學(xué)研究的重點(diǎn)是由應(yīng)用去決定保存哪些向量,哪些不保存。

目前許多的公司仍在使用 RNN/LSTM 來(lái)進(jìn)行語(yǔ)音轉(zhuǎn)文本的工作,都沒(méi)有意識(shí)到這種網(wǎng)絡(luò)結(jié)構(gòu)在效率和可擴(kuò)展性上的缺點(diǎn)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 編碼器
    +關(guān)注

    關(guān)注

    45

    文章

    3808

    瀏覽量

    138059
  • rnn
    rnn
    +關(guān)注

    關(guān)注

    0

    文章

    89

    瀏覽量

    7111

原文標(biāo)題:放棄 RNN/LSTM 吧,因?yàn)檎娴牟缓糜?!望周知~

文章出處:【微信號(hào):AI_Thinker,微信公眾號(hào):人工智能頭條】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    阿童木雙張檢測(cè)器好不好用?用數(shù)據(jù)和場(chǎng)景說(shuō)話

    在工業(yè)生產(chǎn)中,雙張疊料檢測(cè)是保障產(chǎn)線穩(wěn)定與產(chǎn)品質(zhì)量的關(guān)鍵環(huán)節(jié)。阿童木雙張檢測(cè)器憑借技術(shù)創(chuàng)新和行業(yè)落地經(jīng)驗(yàn),成為眾多企業(yè)的選擇。但它究竟“好不好用”?本文將從性能表現(xiàn)、場(chǎng)景適配、用戶反饋三大維度展開(kāi)
    的頭像 發(fā)表于 05-22 11:39 ?251次閱讀
    阿童木雙張檢測(cè)器好<b class='flag-5'>不好用</b>?用數(shù)據(jù)和場(chǎng)景說(shuō)話

    電子工廠ERP好不好用

    在電子制造業(yè)競(jìng)爭(zhēng)日益激烈的當(dāng)下,企業(yè)都在尋找提升效率、降低成本的解決方案,而ERP系統(tǒng)成為了眾多企業(yè)的選擇。那么,電子工廠ERP系統(tǒng)到底好不好用呢?本文將從多個(gè)實(shí)際應(yīng)用場(chǎng)景出發(fā),為你揭開(kāi)答案。一
    的頭像 發(fā)表于 05-12 09:58 ?238次閱讀
    電子工廠ERP好<b class='flag-5'>不好用</b>

    RNNLSTM模型的比較分析

    RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))與LSTM(長(zhǎng)短期記憶網(wǎng)絡(luò))模型在深度學(xué)習(xí)領(lǐng)域都具有處理序列數(shù)據(jù)的能力,但它們在結(jié)構(gòu)、功能和應(yīng)用上存在顯著的差異。以下是對(duì)RNN
    的頭像 發(fā)表于 11-15 10:05 ?2227次閱讀

    深度學(xué)習(xí)中RNN的優(yōu)勢(shì)與挑戰(zhàn)

    循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)是深度學(xué)習(xí)領(lǐng)域中處理序列數(shù)據(jù)的基石。它們通過(guò)在每個(gè)時(shí)間步長(zhǎng)上循環(huán)傳遞信息,使得網(wǎng)絡(luò)能夠捕捉時(shí)間序列數(shù)據(jù)中的長(zhǎng)期依賴(lài)關(guān)系。然而,盡管RNN在某些任務(wù)上表現(xiàn)出色,它們
    的頭像 發(fā)表于 11-15 09:55 ?1331次閱讀

    深度學(xué)習(xí)框架中的LSTM神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)

    長(zhǎng)短期記憶(LSTM)網(wǎng)絡(luò)是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),能夠?qū)W習(xí)長(zhǎng)期依賴(lài)信息。與傳統(tǒng)的RNN相比,LSTM通過(guò)引入門(mén)控機(jī)制來(lái)解決梯度消失和梯度爆炸問(wèn)題,使其在處理序列數(shù)據(jù)時(shí)更為有
    的頭像 發(fā)表于 11-13 10:16 ?1064次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)在圖像處理中的應(yīng)用

    LSTM通過(guò)引入門(mén)控機(jī)制來(lái)解決傳統(tǒng)RNN的梯度消失和梯度爆炸問(wèn)題。這些門(mén)控機(jī)制包括輸入門(mén)、遺忘門(mén)和輸出門(mén),它們控制著信息的流動(dòng),使得網(wǎng)絡(luò)能夠記住或忘記信息。 LSTM在圖像處理中的應(yīng)
    的頭像 發(fā)表于 11-13 10:12 ?1621次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)與工作機(jī)制

    LSTM(Long Short-Term Memory,長(zhǎng)短期記憶)神經(jīng)網(wǎng)絡(luò)是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),設(shè)計(jì)用于解決長(zhǎng)期依賴(lài)問(wèn)題,特別是在處理時(shí)間序列數(shù)據(jù)時(shí)表現(xiàn)出色。以下是LSTM神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 11-13 10:05 ?1631次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)在語(yǔ)音識(shí)別中的應(yīng)用實(shí)例

    神經(jīng)網(wǎng)絡(luò)簡(jiǎn)介 LSTM是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),它能夠?qū)W習(xí)長(zhǎng)期依賴(lài)關(guān)系。在傳統(tǒng)的RNN中,信息會(huì)隨著時(shí)間的流逝而逐漸消失,導(dǎo)致網(wǎng)絡(luò)難以捕捉長(zhǎng)距離的依賴(lài)關(guān)系。LSTM通過(guò)引入門(mén)
    的頭像 發(fā)表于 11-13 10:03 ?1852次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)的調(diào)參技巧

    長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)(Long Short-Term Memory, LSTM)是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),它能夠?qū)W習(xí)長(zhǎng)期依賴(lài)信息。在實(shí)際應(yīng)用中,LSTM網(wǎng)絡(luò)的調(diào)參是一個(gè)復(fù)雜且關(guān)鍵的過(guò)程,直接影響
    的頭像 發(fā)表于 11-13 10:01 ?1863次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)RNN的區(qū)別

    在深度學(xué)習(xí)領(lǐng)域,循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)因其能夠處理序列數(shù)據(jù)而受到廣泛關(guān)注。然而,傳統(tǒng)RNN在處理長(zhǎng)序列時(shí)存在梯度消失或梯度爆炸的問(wèn)題。為了解決這一問(wèn)題,LSTM(長(zhǎng)短期記憶)神經(jīng)網(wǎng)絡(luò)應(yīng)運(yùn)而生。 循環(huán)
    的頭像 發(fā)表于 11-13 09:58 ?1214次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)的優(yōu)缺點(diǎn)分析

    長(zhǎng)短期記憶(Long Short-Term Memory, LSTM)神經(jīng)網(wǎng)絡(luò)是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),由Hochreiter和Schmidhuber在1997年提出。LSTM因其在處理
    的頭像 發(fā)表于 11-13 09:57 ?4831次閱讀

    使用LSTM神經(jīng)網(wǎng)絡(luò)處理自然語(yǔ)言處理任務(wù)

    自然語(yǔ)言處理(NLP)是人工智能領(lǐng)域的一個(gè)重要分支,它旨在使計(jì)算機(jī)能夠理解、解釋和生成人類(lèi)語(yǔ)言。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,特別是循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)及其變體——長(zhǎng)短期記憶(LSTM)網(wǎng)絡(luò)的出現(xiàn)
    的頭像 發(fā)表于 11-13 09:56 ?1161次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)在時(shí)間序列預(yù)測(cè)中的應(yīng)用

    LSTM是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),它能夠?qū)W習(xí)長(zhǎng)期依賴(lài)關(guān)系。與傳統(tǒng)的RNN相比,LSTM通過(guò)引入門(mén)控機(jī)制(輸入門(mén)、遺忘門(mén)、輸出門(mén))來(lái)解決梯度消失和梯度爆炸的問(wèn)題,使其能夠處理
    的頭像 發(fā)表于 11-13 09:54 ?2053次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)的基本原理 如何實(shí)現(xiàn)LSTM神經(jīng)網(wǎng)絡(luò)

    LSTM(長(zhǎng)短期記憶)神經(jīng)網(wǎng)絡(luò)是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),它能夠?qū)W習(xí)長(zhǎng)期依賴(lài)信息。在處理序列數(shù)據(jù)時(shí),如時(shí)間序列分析、自然語(yǔ)言處理等,LSTM因其能夠有效地捕捉時(shí)間序列中的長(zhǎng)期依賴(lài)關(guān)系而受到
    的頭像 發(fā)表于 11-13 09:53 ?1586次閱讀

    請(qǐng)問(wèn)class D類(lèi)運(yùn)放不好用作驅(qū)動(dòng)headphone的原因有哪些?

    請(qǐng)問(wèn)class D類(lèi)運(yùn)放不好用作驅(qū)動(dòng)headphone的原因除了EMI問(wèn)題,還有沒(méi)有其它問(wèn)題的限制,導(dǎo)致TI沒(méi)有生產(chǎn)class D的headphone功
    發(fā)表于 11-04 08:06