一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

簡單圖神經(jīng)網(wǎng)絡(luò)(GNN)的基礎(chǔ)知識

倩倩 ? 來源:機(jī)器之心 ? 2020-04-17 09:20 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在社交網(wǎng)絡(luò)分析等一些應(yīng)用中,圖神經(jīng)網(wǎng)絡(luò)已經(jīng)得到了廣泛的應(yīng)用。新加坡科技研究局(A*STAR)的研究者 Rishabh Anand 近日通過圖解的方式介紹了圖與圖神經(jīng)網(wǎng)絡(luò)的基本概念,或許能幫助初學(xué)者更直觀地理解圖神經(jīng)網(wǎng)絡(luò)的內(nèi)涵和價值。

深度學(xué)習(xí)(Graph Deep Learning,GDL)是一個很有發(fā)展前景的研究領(lǐng)域,基于圖數(shù)據(jù)來學(xué)習(xí)和分析非常有用。本文將介紹簡單圖神經(jīng)網(wǎng)絡(luò)(GNN)的基礎(chǔ)知識及其內(nèi)在工作原理背后的直觀知識。不過,大家不用擔(dān)心,為了能夠更直觀地看懂究竟發(fā)生了什么,作者在文中使用了大量彩圖給出圖解信息。

圖(Graph)是什么?

圖是一種由連接在一起的節(jié)點(diǎn)(頂點(diǎn))和邊構(gòu)成的數(shù)據(jù)結(jié)構(gòu),可用于表示沒有明確起點(diǎn)或終點(diǎn)的信息。所有節(jié)點(diǎn)都可占據(jù)空間中的任意位置,當(dāng)用二維或多維空間繪制圖的結(jié)構(gòu)時,具有相似特征的節(jié)點(diǎn)通常會聚集到一起。

這就是一個圖,由一群分別表示實(shí)體的互連節(jié)點(diǎn)構(gòu)成。

邊上面的黑色尖頭表示節(jié)點(diǎn)之間的關(guān)系類型,其可表明一個關(guān)系是雙向的還是單向的。圖有兩種主要類型:有向圖和無向圖。在有向圖中,節(jié)點(diǎn)之間的連接存在方向;而無向圖的連接順序并不重要。有向圖既可以是單向的,也可以是雙向的。

圖可以表示很多事物——社交網(wǎng)絡(luò)、分子等等。節(jié)點(diǎn)可以表示用戶/產(chǎn)品/原子,而邊表示它們之間的連接,比如關(guān)注/通常與相連接的產(chǎn)品同時購買/鍵。社交網(wǎng)絡(luò)圖可能看起來像是這樣,其中節(jié)點(diǎn)是用戶,邊則是連接:

節(jié)點(diǎn)表示用戶,邊則表示兩個實(shí)體之間的連接/關(guān)系。真實(shí)的社交網(wǎng)絡(luò)圖往往更加龐大和復(fù)雜!

接下來作者會介紹一些概念,如循環(huán)單元、嵌入向量表征和前饋神經(jīng)網(wǎng)絡(luò)。知道一些有關(guān)圖論的知識(比如什么是圖以及圖的形態(tài))也很不錯。

有些術(shù)語你可能并不熟悉。不用擔(dān)心!對于那些讓人疑惑的術(shù)語,作者都盡力鏈接了他可以找到的最靠譜的解釋,能讓你理解所涉概念的基本含義?;诖?,你還能進(jìn)一步了解這些概念,同時還能理解它們在圖神經(jīng)網(wǎng)絡(luò)中所發(fā)揮的作用。

了解圖神經(jīng)網(wǎng)絡(luò)

每個節(jié)點(diǎn)都有一組定義它的特征。在社交網(wǎng)絡(luò)圖的案例中,這些特征可以是年齡、性別、居住國家、政治傾向等。每條邊連接的節(jié)點(diǎn)都可能具有相似的特征。這體現(xiàn)了這些節(jié)點(diǎn)之間的某種相關(guān)性或關(guān)系。

假設(shè)我們有一個圖 G,其具有以下頂點(diǎn)和邊:

這個圖與上圖是一樣的。

為了簡單起見,我們假設(shè)其特征向量是當(dāng)前節(jié)點(diǎn)的索引的 one-hot 編碼。類似地,其標(biāo)簽(或類別)可設(shè)為節(jié)點(diǎn)的顏色(綠、紅、黃)。那么這個圖看起來會是這樣:

節(jié)點(diǎn)的順序其實(shí)并不重要。

注:在實(shí)際運(yùn)用中,盡量不要使用 one-hot 編碼,因?yàn)楣?jié)點(diǎn)的順序可能會非?;靵y。相反,應(yīng)該使用可明顯區(qū)分節(jié)點(diǎn)的特征,比如對社交網(wǎng)絡(luò)而言,可選擇年齡、性別、政治傾向等特征;對分子研究而言可選擇可量化的化學(xué)性質(zhì)。

現(xiàn)在,我們有節(jié)點(diǎn)的 one-hot 編碼(或嵌入)了,接下來我們將神經(jīng)網(wǎng)絡(luò)引入這一混合信息中來實(shí)現(xiàn)對圖的修改。所有的節(jié)點(diǎn)都可轉(zhuǎn)化為循環(huán)單元(或其它任何神經(jīng)網(wǎng)絡(luò)架構(gòu),只是我這里使用的是循環(huán)單元);所有的邊都包含簡單的前饋神經(jīng)網(wǎng)絡(luò)。那么看起來會是這樣:

其中的信封符號只是每個節(jié)點(diǎn)的 one-hot 編碼的向量(嵌入)。

消息傳遞

一旦節(jié)點(diǎn)和邊的轉(zhuǎn)化完成,圖就可在節(jié)點(diǎn)之間執(zhí)行消息傳遞。這個過程也被稱為「近鄰聚合(Neighbourhood Aggregation)」,因?yàn)槠渖婕暗絿@給定節(jié)點(diǎn),通過有向邊從周圍節(jié)點(diǎn)推送消息(即嵌入)。

注:有時候你可為不同類型的邊使用不同的神經(jīng)網(wǎng)絡(luò),比如為單向邊使用一種神經(jīng)網(wǎng)絡(luò),為雙向邊使用另一種神經(jīng)網(wǎng)絡(luò)。這樣你仍然可以獲取節(jié)點(diǎn)之間的空間關(guān)系。

就 GNN 而言,對于單個參考節(jié)點(diǎn),近鄰節(jié)點(diǎn)會通過邊神經(jīng)網(wǎng)絡(luò)向參考節(jié)點(diǎn)上的循環(huán)單元傳遞它們的消息(嵌入)。參考循環(huán)單位的新嵌入更新,基于在循環(huán)嵌入和近鄰節(jié)點(diǎn)嵌入的邊神經(jīng)網(wǎng)絡(luò)輸出的和上使用循環(huán)函數(shù)。我們把上面的紅色節(jié)點(diǎn)放大看看,并對這一過程進(jìn)行可視化:

紫色方塊是一個應(yīng)用于來自近鄰節(jié)點(diǎn)的嵌入(白色信封)上的簡單前饋神經(jīng)網(wǎng)絡(luò);紅色三角形是應(yīng)用于當(dāng)前嵌入(白色信封)和邊神經(jīng)網(wǎng)絡(luò)輸出(黑色信封)之和上的循環(huán)函數(shù),以得到新的嵌入(最上面的白色信封)。

這個過程是在網(wǎng)絡(luò)中的所有節(jié)點(diǎn)上并行執(zhí)行的,因?yàn)?L+1 層的嵌入取決于 L 層的嵌入。因此,在實(shí)踐中,我們并不需要從一個節(jié)點(diǎn)「移動」到另一節(jié)點(diǎn)就能執(zhí)行消息傳遞。

注:邊神經(jīng)網(wǎng)絡(luò)輸出(黑色信封)之和與輸出的順序無關(guān)。

最后的向量表征有什么用?

執(zhí)行了幾次近鄰聚合/消息傳遞流程之后,每個節(jié)點(diǎn)的循環(huán)單元都會獲得一組全新的嵌入。此外,經(jīng)過多個時間步驟/多輪消息傳遞之后,節(jié)點(diǎn)對自己和近鄰節(jié)點(diǎn)的信息(特征)也會有更好的了解。這會為整個圖創(chuàng)建出更加準(zhǔn)確的表征。

要進(jìn)一步在該流程的更高層面上進(jìn)行處理或者只是簡單地表征該圖,你可以將所有嵌入加到一起得到向量 H 來表示整個圖。

使用 H 比使用鄰接矩陣更好,因?yàn)椴还茉鯓訉D進(jìn)行扭轉(zhuǎn)變形,這些矩陣都并不表征圖的特征或獨(dú)特性質(zhì)——只是節(jié)點(diǎn)之間的邊連接(這在某些情形下并不是很重要)。

總結(jié)一下,我們將所有節(jié)點(diǎn)循環(huán)單元的最終向量表征加到一起(當(dāng)然,與順序無關(guān)),然后使用所得到的向量作為其它工作過程的輸入或簡單地將其用于表征該圖。這個步驟看起來如下圖所示:

這是經(jīng)過 n 次重復(fù)消息傳遞之后帶有已完全更新的嵌入向量的最終圖。你可以將所有節(jié)點(diǎn)的表。征加到一起得到 H。

四步驟助你實(shí)現(xiàn)圖神經(jīng)網(wǎng)絡(luò)

GNN 用起來相當(dāng)簡單。事實(shí)上,實(shí)現(xiàn)它們涉及到以下四個步驟:

給定一個圖,首先將節(jié)點(diǎn)轉(zhuǎn)換為循環(huán)單元,將邊轉(zhuǎn)換為前饋神經(jīng)網(wǎng)絡(luò);

接著為所有節(jié)點(diǎn)執(zhí)行 n 次近鄰聚合(也就是消息傳遞);

然后再在所有節(jié)點(diǎn)的嵌入向量上求和以得到圖表征 H;

最后可以完全跳過 H 直接向更高層級進(jìn)發(fā)或者也可使用 H 來表征該圖的獨(dú)有性質(zhì)。

小結(jié)

現(xiàn)在我們清楚地了解圖神經(jīng)網(wǎng)絡(luò)的運(yùn)行方式了。得益于 GNN 在圖節(jié)點(diǎn)之間依賴關(guān)系進(jìn)行建模的強(qiáng)大性能,它在社交網(wǎng)絡(luò)、知識圖譜和推薦系統(tǒng)方面都有廣泛的應(yīng)用。以社交網(wǎng)絡(luò)圖為例,GNN 在內(nèi)容推薦方面表現(xiàn)很好。舉個例子,當(dāng)一個用戶關(guān)注另一個政治傾向相似的用戶時,GNN 可用于節(jié)點(diǎn)分類,以預(yù)測是否可將網(wǎng)站上的特定內(nèi)容發(fā)送到上述用戶的新聞流;當(dāng) GNN 用于「推薦關(guān)注」時,系統(tǒng)可以考慮用戶所在的行業(yè),再提供潛在的連接——邊分類。

圖深度學(xué)習(xí)其實(shí)非常有趣。本文的亮點(diǎn)在于使用一些可視化圖介紹了圖神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)概念,但如果想要透徹地了解 GNN,大家最好自己寫代碼實(shí)現(xiàn)看看。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的比較

    BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)在多個方面存在顯著差異,以下是對兩者的比較: 一、結(jié)構(gòu)特點(diǎn) BP神經(jīng)網(wǎng)絡(luò) : BP神經(jīng)網(wǎng)絡(luò)是一種多層的前饋神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 02-12 15:53 ?662次閱讀

    BP神經(jīng)網(wǎng)絡(luò)的優(yōu)缺點(diǎn)分析

    BP神經(jīng)網(wǎng)絡(luò)(Back Propagation Neural Network)作為一種常用的機(jī)器學(xué)習(xí)模型,具有顯著的優(yōu)點(diǎn),同時也存在一些不容忽視的缺點(diǎn)。以下是對BP神經(jīng)網(wǎng)絡(luò)優(yōu)缺點(diǎn)的分析: 優(yōu)點(diǎn)
    的頭像 發(fā)表于 02-12 15:36 ?914次閱讀

    什么是BP神經(jīng)網(wǎng)絡(luò)的反向傳播算法

    BP神經(jīng)網(wǎng)絡(luò)的反向傳播算法(Backpropagation Algorithm)是一種用于訓(xùn)練神經(jīng)網(wǎng)絡(luò)的有效方法。以下是關(guān)于BP神經(jīng)網(wǎng)絡(luò)的反向傳播算法的介紹: 一、基本概念 反向傳播算法是BP
    的頭像 發(fā)表于 02-12 15:18 ?765次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)的關(guān)系

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)之間存在著密切的關(guān)系,以下是對它們之間關(guān)系的介紹: 一、BP神經(jīng)網(wǎng)絡(luò)的基本概念 BP神經(jīng)網(wǎng)絡(luò),即反向傳播神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural N
    的頭像 發(fā)表于 02-12 15:15 ?851次閱讀

    BP神經(jīng)網(wǎng)絡(luò)的基本原理

    BP神經(jīng)網(wǎng)絡(luò)(Back Propagation Neural Network)的基本原理涉及前向傳播和反向傳播兩個核心過程。以下是關(guān)于BP神經(jīng)網(wǎng)絡(luò)基本原理的介紹: 一、網(wǎng)絡(luò)結(jié)構(gòu) BP神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 02-12 15:13 ?847次閱讀

    深度學(xué)習(xí)入門:簡單神經(jīng)網(wǎng)絡(luò)的構(gòu)建與實(shí)現(xiàn)

    深度學(xué)習(xí)中,神經(jīng)網(wǎng)絡(luò)是核心模型。今天我們用 Python 和 NumPy 構(gòu)建一個簡單神經(jīng)網(wǎng)絡(luò)。 神經(jīng)網(wǎng)絡(luò)由多個神經(jīng)元組成,
    的頭像 發(fā)表于 01-23 13:52 ?528次閱讀

    人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法

    在上一篇文章中,我們介紹了傳統(tǒng)機(jī)器學(xué)習(xí)的基礎(chǔ)知識和多種算法。在本文中,我們會介紹人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法,供各位老師選擇。 01 人工神經(jīng)網(wǎng)絡(luò) ? 人工
    的頭像 發(fā)表于 01-09 10:24 ?1184次閱讀
    人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的原理和多種<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>架構(gòu)方法

    卷積神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的比較

    神經(jīng)網(wǎng)絡(luò),也稱為全連接神經(jīng)網(wǎng)絡(luò)(Fully Connected Neural Networks,F(xiàn)CNs),其特點(diǎn)是每一層的每個神經(jīng)元都與下一層的所有神經(jīng)元相連。這種結(jié)構(gòu)
    的頭像 發(fā)表于 11-15 14:53 ?1866次閱讀

    RNN模型與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的區(qū)別

    傳統(tǒng)神經(jīng)網(wǎng)絡(luò)(前饋神經(jīng)網(wǎng)絡(luò)) 2.1 結(jié)構(gòu) 傳統(tǒng)神經(jīng)網(wǎng)絡(luò),通常指的是前饋神經(jīng)網(wǎng)絡(luò)(Feedforward Neural Networks, FNN),是一種最
    的頭像 發(fā)表于 11-15 09:42 ?1125次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)與工作機(jī)制

    LSTM(Long Short-Term Memory,長短期記憶)神經(jīng)網(wǎng)絡(luò)是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),設(shè)計(jì)用于解決長期依賴問題,特別是在處理時間序列數(shù)據(jù)時表現(xiàn)出色。以下是LSTM神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 11-13 10:05 ?1629次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)RNN的區(qū)別

    在深度學(xué)習(xí)領(lǐng)域,循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)因其能夠處理序列數(shù)據(jù)而受到廣泛關(guān)注。然而,傳統(tǒng)RNN在處理長序列時存在梯度消失或梯度爆炸的問題。為了解決這一問題,LSTM(長短期記憶)神經(jīng)網(wǎng)絡(luò)應(yīng)運(yùn)而生。 循環(huán)
    的頭像 發(fā)表于 11-13 09:58 ?1208次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)的基本原理 如何實(shí)現(xiàn)LSTM神經(jīng)網(wǎng)絡(luò)

    LSTM(長短期記憶)神經(jīng)網(wǎng)絡(luò)是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),它能夠?qū)W習(xí)長期依賴信息。在處理序列數(shù)據(jù)時,如時間序列分析、自然語言處理等,LSTM因其能夠有效地捕捉時間序列中的長期依賴關(guān)系而受到
    的頭像 發(fā)表于 11-13 09:53 ?1578次閱讀

    Moku人工神經(jīng)網(wǎng)絡(luò)101

    不熟悉神經(jīng)網(wǎng)絡(luò)基礎(chǔ)知識,或者想了解神經(jīng)網(wǎng)絡(luò)如何優(yōu)化加速實(shí)驗(yàn)研究,請繼續(xù)閱讀,探索基于深度學(xué)習(xí)的現(xiàn)代智能化實(shí)驗(yàn)的廣闊應(yīng)用前景。什么是神經(jīng)網(wǎng)絡(luò)?“人工
    的頭像 發(fā)表于 11-01 08:06 ?662次閱讀
    Moku人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>101

    關(guān)于卷積神經(jīng)網(wǎng)絡(luò),這些概念你厘清了么~

    。 2.一個小型神經(jīng)網(wǎng)絡(luò) 3.用CIFAR-10數(shù)據(jù)集訓(xùn)練的CIFAR網(wǎng)絡(luò)模型 CIFAR-10是一個特定數(shù)據(jù)集,通常用于訓(xùn)練CIFAR
    發(fā)表于 10-24 13:56

    matlab 神經(jīng)網(wǎng)絡(luò) 數(shù)學(xué)建模數(shù)值分析

    matlab神經(jīng)網(wǎng)絡(luò) 數(shù)學(xué)建模數(shù)值分析 精通的可以討論下
    發(fā)表于 09-18 15:14