一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

圖神經(jīng)網(wǎng)絡(luò)GNN的卷積操作流程

電子工程師 ? 來(lái)源:工程師曾玲 ? 2019-06-08 17:13 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

2019年的時(shí)針開(kāi)始轉(zhuǎn)動(dòng),在CNN、RNN、LSTM、GAN、GNN、CAP的潮起潮落中,帶來(lái)了這篇博客。放上一篇 參考引用 。 其實(shí)個(gè)人認(rèn)為理解GNN的核心問(wèn)題就是理解圖怎么做傅里葉變換。CNN的核心操作時(shí)卷積,GNN也是。CNN計(jì)算二維矩陣的卷積,GNN計(jì)算圖的卷積。那么我們定義好圖的傅里葉變換和圖的卷積就可以了,其媒介就是圖的拉普拉斯矩陣。

好了,這篇博客將簡(jiǎn)要介紹圖神經(jīng)網(wǎng)絡(luò)的原理,但是不會(huì)設(shè)計(jì)太多數(shù)學(xué)細(xì)節(jié)(因?yàn)椴┲鲾?shù)學(xué)很爛啦)。通過(guò)理解圖神經(jīng)網(wǎng)絡(luò)的卷積操作,來(lái)理解其流程,再會(huì)配合代碼來(lái)做簡(jiǎn)單解釋。

拉普拉斯矩陣

對(duì)于一個(gè)圖來(lái)說(shuō),其度為其與頂點(diǎn)鏈接的數(shù)量,Degree Matrix的對(duì)角線(xiàn)元素就是其每個(gè)頂點(diǎn)度的數(shù)量。鄰接矩陣表示了圖中各個(gè)頂點(diǎn)的鄰接關(guān)系。如下圖,一個(gè)圖的Laplace矩陣就是 L = D – A。

圖神經(jīng)網(wǎng)絡(luò)GNN的卷積操作流程

Laplace矩陣的計(jì)算

事實(shí)上,常用的Laplace矩陣有三種,上面介紹的只是其中一種。

Laplace矩陣有許多良好的性質(zhì):

1. Laplace矩陣是對(duì)稱(chēng)矩陣,可以進(jìn)行特征分解

2. Laplace矩陣只在中心頂點(diǎn)和一階相連頂點(diǎn)上有非0元素,其余處均為0

3. Laplace算子與Laplace矩陣進(jìn)行類(lèi)比

圖的傅里葉變換

推廣傅里葉變換

傳統(tǒng)的傅里葉變換針對(duì)連續(xù)的函數(shù),然后對(duì)數(shù)列有了離散傅里葉變換,那么矩陣能否做傅里葉變換呢?這篇Paper告訴我們,可以,沒(méi)問(wèn)題:https://arxiv.org/abs/1211.0053

L時(shí)拉普拉斯矩陣,V是其特征向量,滿(mǎn)足 LV=\lambda V

L的拉普拉斯譜分解為 L = U \sigma U^T

那么定義Graph上的傅里葉變換為Fourier(f) = U^T f

推廣卷積(f*h)_G = U((U^Th)\odot(U^Tf))

那么時(shí)域上的卷積就是頻域點(diǎn)乘的傅里葉逆變換,這樣我們就可以實(shí)現(xiàn)卷積操作了。

理解拉普拉斯矩陣譜分解

傅里葉變換的本質(zhì),就是把任意一個(gè)函數(shù)表示成若干正交函數(shù)(由sin,cos構(gòu)成)的線(xiàn)性組合。

圖神經(jīng)網(wǎng)絡(luò)GNN的卷積操作流程

傅里葉變換

拉普拉斯矩陣的特征值表示頻率。再graph空間上無(wú)法可視化頻率的概念,信息論告訴我們,特征值越大,對(duì)應(yīng)的信息越多,小的特征值就是低頻分量,信息較少,是可以忽略的。

在壓縮圖像的過(guò)程中,也是把低頻成分變?yōu)?,高頻(邊緣)會(huì)被保留,它帶給我們更多的信息。

Deep Learning 中的 Graph Convolution

在卷積和中,需要手工設(shè)置K個(gè)參數(shù),K具有很好的spatial localization,對(duì)應(yīng)的有權(quán)重系數(shù)(這些具體的參數(shù)根據(jù)模型會(huì)有不同,這里大致介紹,重在理解)。更直觀的看,K=1就是對(duì)每個(gè)頂點(diǎn)上一階neighbor的feature進(jìn)行加權(quán)求和,如下圖

圖神經(jīng)網(wǎng)絡(luò)GNN的卷積操作流程

K=1的情況

圖神經(jīng)網(wǎng)絡(luò)GNN的卷積操作流程

K=2的情況

GCN每次卷積對(duì)所有頂點(diǎn)都完成了圖示操作。

進(jìn)一步在數(shù)學(xué)層面上理解Spectral Graph在GCN中的作用,這個(gè)就參考開(kāi)頭給出鏈接中的paper吧。

OK,See You Next Time!

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    卷積神經(jīng)網(wǎng)絡(luò)如何使用

    卷積神經(jīng)網(wǎng)絡(luò)(CNN)究竟是什么,鑒于神經(jīng)網(wǎng)絡(luò)在工程上經(jīng)歷了曲折的歷史,您為什么還會(huì)在意它呢? 對(duì)于這些非常中肯的問(wèn)題,我們似乎可以給出相對(duì)簡(jiǎn)明的答案。
    發(fā)表于 07-17 07:21

    什么是圖卷積神經(jīng)網(wǎng)絡(luò)

    卷積神經(jīng)網(wǎng)絡(luò)
    發(fā)表于 08-20 12:05

    卷積神經(jīng)網(wǎng)絡(luò)的優(yōu)點(diǎn)是什么

    卷積神經(jīng)網(wǎng)絡(luò)的優(yōu)點(diǎn)
    發(fā)表于 05-05 18:12

    GNN神經(jīng)網(wǎng)絡(luò))硬件加速的FPGA實(shí)戰(zhàn)解決方案

    ,對(duì)傳統(tǒng)的機(jī)器學(xué)習(xí)算法設(shè)計(jì)以及其實(shí)現(xiàn)技術(shù)帶來(lái)了嚴(yán)峻的挑戰(zhàn)。在此背景之下,諸多基于Graph的新型機(jī)器學(xué)習(xí)算法—GNN神經(jīng)網(wǎng)絡(luò)),在學(xué)術(shù)界和產(chǎn)業(yè)界不斷的涌現(xiàn)出來(lái)。GNN對(duì)算力和存儲(chǔ)器
    發(fā)表于 07-07 08:00

    卷積神經(jīng)網(wǎng)絡(luò)一維卷積的處理過(guò)程

    。本文就以一維卷積神經(jīng)網(wǎng)絡(luò)為例談?wù)勗趺磥?lái)進(jìn)一步優(yōu)化卷積神經(jīng)網(wǎng)絡(luò)使用的memory。文章(卷積神經(jīng)網(wǎng)絡(luò)
    發(fā)表于 12-23 06:16

    卷積神經(jīng)網(wǎng)絡(luò)模型發(fā)展及應(yīng)用

    卷積神經(jīng)網(wǎng)絡(luò)模型發(fā)展及應(yīng)用轉(zhuǎn)載****地址:http://fcst.ceaj.org/CN/abstract/abstract2521.shtml深度學(xué)習(xí)是機(jī)器學(xué)習(xí)和人工智能研究的最新趨勢(shì),作為一個(gè)
    發(fā)表于 08-02 10:39

    卷積神經(jīng)網(wǎng)絡(luò)簡(jiǎn)介:什么是機(jī)器學(xué)習(xí)?

    抽象人工智能 (AI) 的世界正在迅速發(fā)展,人工智能越來(lái)越多地支持以前無(wú)法實(shí)現(xiàn)或非常難以實(shí)現(xiàn)的應(yīng)用程序。本系列文章解釋了卷積神經(jīng)網(wǎng)絡(luò) (CNN) 及其在 AI 系統(tǒng)中機(jī)器學(xué)習(xí)中的重要性。CNN 是從
    發(fā)表于 02-23 20:11

    卷積神經(jīng)網(wǎng)絡(luò)概述 卷積神經(jīng)網(wǎng)絡(luò)的特點(diǎn) cnn卷積神經(jīng)網(wǎng)絡(luò)的優(yōu)點(diǎn)

    卷積神經(jīng)網(wǎng)絡(luò)概述 卷積神經(jīng)網(wǎng)絡(luò)的特點(diǎn) cnn卷積神經(jīng)網(wǎng)絡(luò)的優(yōu)點(diǎn)?
    的頭像 發(fā)表于 08-21 16:41 ?3800次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)層級(jí)結(jié)構(gòu) 卷積神經(jīng)網(wǎng)絡(luò)卷積層講解

    卷積神經(jīng)網(wǎng)絡(luò)層級(jí)結(jié)構(gòu) 卷積神經(jīng)網(wǎng)絡(luò)卷積層講解 卷積神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 08-21 16:49 ?9875次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的介紹 什么是卷積神經(jīng)網(wǎng)絡(luò)算法

    卷積神經(jīng)網(wǎng)絡(luò)的介紹 什么是卷積神經(jīng)網(wǎng)絡(luò)算法 卷積神經(jīng)網(wǎng)絡(luò)涉及的關(guān)鍵技術(shù)
    的頭像 發(fā)表于 08-21 16:49 ?2345次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)算法是機(jī)器算法嗎

    神經(jīng)網(wǎng)絡(luò)的原理 先介紹一下卷積神經(jīng)網(wǎng)絡(luò)的原理。卷積神經(jīng)網(wǎng)絡(luò)中的核心結(jié)構(gòu)是卷積層。
    的頭像 發(fā)表于 08-21 16:49 ?1120次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)算法流程 卷積神經(jīng)網(wǎng)絡(luò)模型工作流程

    卷積神經(jīng)網(wǎng)絡(luò)算法流程 卷積神經(jīng)網(wǎng)絡(luò)模型工作流程? 卷積
    的頭像 發(fā)表于 08-21 16:50 ?3358次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)主要包括哪些 卷積神經(jīng)網(wǎng)絡(luò)組成部分

    ,并且在處理圖像、音頻、文本等方面具有非常出色的表現(xiàn)。本文將從卷積神經(jīng)網(wǎng)絡(luò)的原理、架構(gòu)、訓(xùn)練、應(yīng)用等方面進(jìn)行詳細(xì)介紹。 一、卷積神經(jīng)網(wǎng)絡(luò)原理 1.1
    的頭像 發(fā)表于 08-21 17:15 ?2369次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的原理與實(shí)現(xiàn)

    核心思想是通過(guò)卷積操作提取輸入數(shù)據(jù)的特征。與傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)不同,卷積神經(jīng)網(wǎng)絡(luò)具有參數(shù)共享和局部連接的特點(diǎn),這使得其在處理圖像等高維數(shù)據(jù)時(shí)具有
    的頭像 發(fā)表于 07-02 16:47 ?1287次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)原理

    、訓(xùn)練過(guò)程以及應(yīng)用場(chǎng)景。 卷積神經(jīng)網(wǎng)絡(luò)的基本原理 1.1 卷積操作 卷積神經(jīng)網(wǎng)絡(luò)的核心是
    的頭像 發(fā)表于 07-03 10:49 ?1174次閱讀