一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度學習與圖神經(jīng)網(wǎng)絡學習分享:Transformer

恬靜簡樸1 ? 來源:恬靜簡樸1 ? 作者:恬靜簡樸1 ? 2022-09-22 10:16 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在過去的幾年中,神經(jīng)網(wǎng)絡的興起與應用成功推動了模式識別和數(shù)據(jù)挖掘的研究。許多曾經(jīng)嚴重依賴于手工提取特征的機器學習任務(如目標檢測、機器翻譯和語音識別),如今都已被各種端到端的深度學習范式(例如卷積神經(jīng)網(wǎng)絡(CNN)、長短期記憶(LSTM)和自動編碼器)徹底改變了。曾有學者將本次人工智能浪潮的興起歸因于三個條件,分別是:

·計算資源的快速發(fā)展(如GPU

·大量訓練數(shù)據(jù)的可用性

·深度學習從歐氏空間數(shù)據(jù)中提取潛在特征的有效性

盡管傳統(tǒng)的深度學習方法被應用在提取歐氏空間數(shù)據(jù)的特征方面取得了巨大的成功,但許多實際應用場景中的數(shù)據(jù)是從非歐式空間生成的,傳統(tǒng)的深度學習方法在處理非歐式空間數(shù)據(jù)上的表現(xiàn)卻仍難以使人滿意。例如,在電子商務中,一個基于圖(Graph)的學習系統(tǒng)能夠利用用戶和產(chǎn)品之間的交互來做出非常準確的推薦,但圖的復雜性使得現(xiàn)有的深度學習算法在處理時面臨著巨大的挑戰(zhàn)。這是因為圖是不規(guī)則的,每個圖都有一個大小可變的無序節(jié)點,圖中的每個節(jié)點都有不同數(shù)量的相鄰節(jié)點,導致一些重要的操作(例如卷積)在圖像(Image)上很容易計算,但不再適合直接用于圖。此外,現(xiàn)有深度學習算法的一個核心假設是數(shù)據(jù)樣本之間彼此獨立。然而,對于圖來說,情況并非如此,圖中的每個數(shù)據(jù)樣本(節(jié)點)都會有邊與圖中其他實數(shù)據(jù)樣本(節(jié)點)相關(guān),這些信息可用于捕獲實例之間的相互依賴關(guān)系。

近年來,人們對深度學習方法在圖上的擴展越來越感興趣。在多方因素的成功推動下,研究人員借鑒了卷積網(wǎng)絡、循環(huán)網(wǎng)絡和深度自動編碼器的思想,定義和設計了用于處理圖數(shù)據(jù)的神經(jīng)網(wǎng)絡結(jié)構(gòu),由此一個新的研究熱點——“圖神經(jīng)網(wǎng)絡(Graph Neural Networks,GNN)”應運而生

近期看了關(guān)于Transformer的信息

來簡述一下Transformer結(jié)構(gòu)

Transformer 整體結(jié)構(gòu)

首先介紹 Transformer 的整體結(jié)構(gòu),下圖是 Transformer 用于中英文翻譯的整體結(jié)構(gòu):

poYBAGMrxYSAXIODAAIyxpHrbrk430.png

Transformer 的整體結(jié)構(gòu),左圖Encoder和右圖Decoder

可以看到Transformer 由 Encoder 和 Decoder 兩個部分組成,Encoder 和 Decoder 都包含 6 個 block。Transformer 的工作流程大體如下:

第一步:獲取輸入句子的每一個單詞的表示向量X,X由單詞的 Embedding(Embedding就是從原始數(shù)據(jù)提取出來的Feature) 和單詞位置的 Embedding 相加得到。

pYYBAGMrxYWAcezKAAFvIMTglvY986.png

Transformer 的輸入表示

第二步:將得到的單詞表示向量矩陣 (如上圖所示,每一行是一個單詞的表示x) 傳入 Encoder 中,經(jīng)過 6 個 Encoder block 后可以得到句子所有單詞的編碼信息矩陣C,如下圖。單詞向量矩陣用Xn×d表示, n 是句子中單詞個數(shù),d 是表示向量的維度 (論文中 d=512)。每一個 Encoder block 輸出的矩陣維度與輸入完全一致。

poYBAGMrxYeATcedAALbxb67lzs473.png

Transformer Encoder 編碼句子信息

第三步:將 Encoder 輸出的編碼信息矩陣C傳遞到 Decoder 中,Decoder 依次會根據(jù)當前翻譯過的單詞 1~ i 翻譯下一個單詞 i+1,如下圖所示。在使用的過程中,翻譯到單詞 i+1 的時候需要通過Mask (掩蓋)操作遮蓋住 i+1 之后的單詞。

Transofrmer Decoder 預測

上圖 Decoder 接收了 Encoder 的編碼矩陣C,然后首先輸入一個翻譯開始符 "",預測第一個單詞 "I";然后輸入翻譯開始符 "" 和單詞 "I",預測單詞 "have",以此類推。這是 Transformer 使用時候的大致流程。

審核編輯 黃昊宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡

    關(guān)注

    42

    文章

    4814

    瀏覽量

    103616
  • 深度學習
    +關(guān)注

    關(guān)注

    73

    文章

    5561

    瀏覽量

    122794
  • Transformer
    +關(guān)注

    關(guān)注

    0

    文章

    151

    瀏覽量

    6520
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    如何優(yōu)化BP神經(jīng)網(wǎng)絡學習

    優(yōu)化BP神經(jīng)網(wǎng)絡學習率是提高模型訓練效率和性能的關(guān)鍵步驟。以下是一些優(yōu)化BP神經(jīng)網(wǎng)絡學習率的方法: 一、理解學習率的重要性
    的頭像 發(fā)表于 02-12 15:51 ?939次閱讀

    BP神經(jīng)網(wǎng)絡的優(yōu)缺點分析

    BP神經(jīng)網(wǎng)絡(Back Propagation Neural Network)作為一種常用的機器學習模型,具有顯著的優(yōu)點,同時也存在一些不容忽視的缺點。以下是對BP神經(jīng)網(wǎng)絡優(yōu)缺點的分析: 優(yōu)點
    的頭像 發(fā)表于 02-12 15:36 ?921次閱讀

    BP神經(jīng)網(wǎng)絡深度學習的關(guān)系

    BP神經(jīng)網(wǎng)絡深度學習之間存在著密切的關(guān)系,以下是對它們之間關(guān)系的介紹: 一、BP神經(jīng)網(wǎng)絡的基本概念 BP神經(jīng)網(wǎng)絡,即反向傳播
    的頭像 發(fā)表于 02-12 15:15 ?860次閱讀

    深度學習入門:簡單神經(jīng)網(wǎng)絡的構(gòu)建與實現(xiàn)

    深度學習中,神經(jīng)網(wǎng)絡是核心模型。今天我們用 Python 和 NumPy 構(gòu)建一個簡單的神經(jīng)網(wǎng)絡。 神經(jīng)網(wǎng)絡由多個
    的頭像 發(fā)表于 01-23 13:52 ?530次閱讀

    人工神經(jīng)網(wǎng)絡的原理和多種神經(jīng)網(wǎng)絡架構(gòu)方法

    在上一篇文章中,我們介紹了傳統(tǒng)機器學習的基礎知識和多種算法。在本文中,我們會介紹人工神經(jīng)網(wǎng)絡的原理和多種神經(jīng)網(wǎng)絡架構(gòu)方法,供各位老師選擇。 01 人工神經(jīng)網(wǎng)絡 ? 人工
    的頭像 發(fā)表于 01-09 10:24 ?1189次閱讀
    人工<b class='flag-5'>神經(jīng)網(wǎng)絡</b>的原理和多種<b class='flag-5'>神經(jīng)網(wǎng)絡</b>架構(gòu)方法

    卷積神經(jīng)網(wǎng)絡的實現(xiàn)工具與框架

    卷積神經(jīng)網(wǎng)絡因其在圖像和視頻處理任務中的卓越性能而廣受歡迎。隨著深度學習技術(shù)的快速發(fā)展,多種實現(xiàn)工具和框架應運而生,為研究人員和開發(fā)者提供了強大的支持。 TensorFlow 概述
    的頭像 發(fā)表于 11-15 15:20 ?671次閱讀

    卷積神經(jīng)網(wǎng)絡與傳統(tǒng)神經(jīng)網(wǎng)絡的比較

    深度學習領(lǐng)域,神經(jīng)網(wǎng)絡模型被廣泛應用于各種任務,如圖像識別、自然語言處理和游戲智能等。其中,卷積神經(jīng)網(wǎng)絡(CNNs)和傳統(tǒng)神經(jīng)網(wǎng)絡是兩種常
    的頭像 發(fā)表于 11-15 14:53 ?1870次閱讀

    深度學習中的卷積神經(jīng)網(wǎng)絡模型

    深度學習近年來在多個領(lǐng)域取得了顯著的進展,尤其是在圖像識別、語音識別和自然語言處理等方面。卷積神經(jīng)網(wǎng)絡作為深度學習的一個分支,因其在圖像處理
    的頭像 發(fā)表于 11-15 14:52 ?846次閱讀

    LSTM神經(jīng)網(wǎng)絡與其他機器學習算法的比較

    隨著人工智能技術(shù)的飛速發(fā)展,機器學習算法在各個領(lǐng)域中扮演著越來越重要的角色。長短期記憶網(wǎng)絡(LSTM)作為一種特殊的循環(huán)神經(jīng)網(wǎng)絡(RNN),因其在處理序列數(shù)據(jù)方面的優(yōu)勢而受到廣泛關(guān)注。 LSTM
    的頭像 發(fā)表于 11-13 10:17 ?2144次閱讀

    深度學習框架中的LSTM神經(jīng)網(wǎng)絡實現(xiàn)

    長短期記憶(LSTM)網(wǎng)絡是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(RNN),能夠學習長期依賴信息。與傳統(tǒng)的RNN相比,LSTM通過引入門控機制來解決梯度消失和梯度爆炸問題,使其在處理序列數(shù)據(jù)時更為有效。在自然語言
    的頭像 發(fā)表于 11-13 10:16 ?1064次閱讀

    LSTM神經(jīng)網(wǎng)絡與傳統(tǒng)RNN的區(qū)別

    深度學習領(lǐng)域,循環(huán)神經(jīng)網(wǎng)絡(RNN)因其能夠處理序列數(shù)據(jù)而受到廣泛關(guān)注。然而,傳統(tǒng)RNN在處理長序列時存在梯度消失或梯度爆炸的問題。為了解決這一問題,LSTM(長短期記憶)神經(jīng)網(wǎng)絡
    的頭像 發(fā)表于 11-13 09:58 ?1213次閱讀

    LSTM神經(jīng)網(wǎng)絡的基本原理 如何實現(xiàn)LSTM神經(jīng)網(wǎng)絡

    LSTM(長短期記憶)神經(jīng)網(wǎng)絡是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(RNN),它能夠學習長期依賴信息。在處理序列數(shù)據(jù)時,如時間序列分析、自然語言處理等,LSTM因其能夠有效地捕捉時間序列中的長期依賴關(guān)系而受到
    的頭像 發(fā)表于 11-13 09:53 ?1586次閱讀

    Moku人工神經(jīng)網(wǎng)絡101

    不熟悉神經(jīng)網(wǎng)絡的基礎知識,或者想了解神經(jīng)網(wǎng)絡如何優(yōu)化加速實驗研究,請繼續(xù)閱讀,探索基于深度學習的現(xiàn)代智能化實驗的廣闊應用前景。什么是神經(jīng)網(wǎng)絡
    的頭像 發(fā)表于 11-01 08:06 ?665次閱讀
    Moku人工<b class='flag-5'>神經(jīng)網(wǎng)絡</b>101

    FPGA在深度神經(jīng)網(wǎng)絡中的應用

    隨著人工智能技術(shù)的飛速發(fā)展,深度神經(jīng)網(wǎng)絡(Deep Neural Network, DNN)作為其核心算法之一,在圖像識別、語音識別、自然語言處理等領(lǐng)域取得了顯著成果。然而,傳統(tǒng)的深度神經(jīng)網(wǎng)絡
    的頭像 發(fā)表于 07-24 10:42 ?1205次閱讀

    如何構(gòu)建多層神經(jīng)網(wǎng)絡

    構(gòu)建多層神經(jīng)網(wǎng)絡(MLP, Multi-Layer Perceptron)模型是一個在機器學習深度學習領(lǐng)域廣泛使用的技術(shù),尤其在處理分類和回歸問題時。在本文中,我們將深入探討如何從頭
    的頭像 發(fā)表于 07-19 17:19 ?1568次閱讀