一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

圖卷積神經(jīng)網(wǎng)絡(luò)入門(mén)詳解

倩倩 ? 來(lái)源:AI科技大本營(yíng) ? 2020-04-17 10:14 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

【導(dǎo)讀】GCN問(wèn)世已經(jīng)有幾年了(2016年就誕生了),但是這兩年尤為火爆。本人愚鈍,一直沒(méi)能搞懂這個(gè)GCN為何物,最開(kāi)始是看清華寫(xiě)的一篇三四十頁(yè)的綜述,讀了幾頁(yè)就沒(méi)讀了;后來(lái)直接拜讀GCN的開(kāi)山之作,也是讀到中間的數(shù)學(xué)部分就跪了;再后來(lái)在知乎上看大神們的講解,直接被排山倒海般的公式——什么傅里葉變換、什么拉普拉斯算子等等,給搞蒙了,越讀越覺(jué)得:“哇這些大佬好厲害,哎我怎么這么菜!”。就這么反反復(fù)復(fù),嘗試一次放棄一次,終于慢慢有點(diǎn)理解了,慢慢從那些公式的里跳了出來(lái),看到了全局,也就慢慢明白了GCN的原理。今天,我就記錄一下我對(duì)GCN“階段性”的理解。

GCN的概念首次提出于ICLR2017(成文于2016年):

一、GCN是做什么的

在扎進(jìn)GCN的汪洋大海前,我們先搞清楚這個(gè)玩意兒是做什么的,有什么用。

深度學(xué)習(xí)一直都是被幾大經(jīng)典模型給統(tǒng)治著,如CNN、RNN等等,它們無(wú)論再CV還是NLP領(lǐng)域都取得了優(yōu)異的效果,那這個(gè)GCN是怎么跑出來(lái)的?是因?yàn)槲覀儼l(fā)現(xiàn)了很多CNN、RNN無(wú)法解決或者效果不好的問(wèn)題——圖結(jié)構(gòu)的數(shù)據(jù)。

回憶一下,我們做圖像識(shí)別,對(duì)象是圖片,是一個(gè)二維的結(jié)構(gòu),于是人們發(fā)明了CNN這種神奇的模型來(lái)提取圖片的特征。CNN的核心在于它的kernel,kernel是一個(gè)個(gè)小窗口,在圖片上平移,通過(guò)卷積的方式來(lái)提取特征。這里的關(guān)鍵在于圖片結(jié)構(gòu)上的平移不變性:一個(gè)小窗口無(wú)論移動(dòng)到圖片的哪一個(gè)位置,其內(nèi)部的結(jié)構(gòu)都是一模一樣的,因此CNN可以實(shí)現(xiàn)參數(shù)共享。這就是CNN的精髓所在。

再回憶一下RNN系列,它的對(duì)象是自然語(yǔ)言這樣的序列信息,是一個(gè)一維的結(jié)構(gòu),RNN就是專(zhuān)門(mén)針對(duì)這些序列的結(jié)構(gòu)而設(shè)計(jì)的,通過(guò)各種門(mén)的操作,使得序列前后的信息互相影響,從而很好地捕捉序列的特征。

上面講的圖片或者語(yǔ)言,都屬于歐式空間的數(shù)據(jù),因此才有維度的概念,歐式空間的數(shù)據(jù)的特點(diǎn)就是結(jié)構(gòu)很規(guī)則。但是現(xiàn)實(shí)生活中,其實(shí)有很多很多不規(guī)則的數(shù)據(jù)結(jié)構(gòu),典型的就是圖結(jié)構(gòu),或稱(chēng)拓?fù)浣Y(jié)構(gòu),如社交網(wǎng)絡(luò)、化學(xué)分子結(jié)構(gòu)、知識(shí)圖譜等等;即使是語(yǔ)言,實(shí)際上其內(nèi)部也是復(fù)雜的樹(shù)形結(jié)構(gòu),也是一種圖結(jié)構(gòu);而像圖片,在做目標(biāo)識(shí)別的時(shí)候,我們關(guān)注的實(shí)際上只是二維圖片上的部分關(guān)鍵點(diǎn),這些點(diǎn)組成的也是一個(gè)圖的結(jié)構(gòu)。

圖的結(jié)構(gòu)一般來(lái)說(shuō)是十分不規(guī)則的,可以認(rèn)為是無(wú)限維的一種數(shù)據(jù),所以它沒(méi)有平移不變性。每一個(gè)節(jié)點(diǎn)的周?chē)Y(jié)構(gòu)可能都是獨(dú)一無(wú)二的,這種結(jié)構(gòu)的數(shù)據(jù),就讓傳統(tǒng)的CNN、RNN瞬間失效。所以很多學(xué)者從上個(gè)世紀(jì)就開(kāi)始研究怎么處理這類(lèi)數(shù)據(jù)了。這里涌現(xiàn)出了很多方法,例如GNN、DeepWalk、node2vec等等,GCN只是其中一種,這里只講GCN,其他的后面有空再討論。

GCN,圖卷積神經(jīng)網(wǎng)絡(luò),實(shí)際上跟CNN的作用一樣,就是一個(gè)特征提取器,只不過(guò)它的對(duì)象是圖數(shù)據(jù)。GCN精妙地設(shè)計(jì)了一種從圖數(shù)據(jù)中提取特征的方法,從而讓我們可以使用這些特征去對(duì)圖數(shù)據(jù)進(jìn)行節(jié)點(diǎn)分類(lèi)(node classification)、圖分類(lèi)(graph classification)、邊預(yù)測(cè)(link prediction),還可以順便得到圖的嵌入表示(graph embedding),可見(jiàn)用途廣泛。因此現(xiàn)在人們腦洞大開(kāi),讓GCN到各個(gè)領(lǐng)域中發(fā)光發(fā)熱。

二、GCN長(zhǎng)啥樣,嚇人嗎

GCN的公式看起來(lái)還是有點(diǎn)嚇人的,論文里的公式更是嚇破了我的膽兒。但后來(lái)才發(fā)現(xiàn),其實(shí)90%的內(nèi)容根本不必理會(huì),只是為了從數(shù)學(xué)上嚴(yán)謹(jǐn)?shù)匕咽虑榻o講清楚,但是完全不影響我們的理解,尤其對(duì)于我這種“追求直覺(jué),不求甚解”之人。

下面進(jìn)入正題,我們直接看看GCN的核心部分是什么亞子:

假設(shè)我們手頭有一批圖數(shù)據(jù),其中有N個(gè)節(jié)點(diǎn)(node),每個(gè)節(jié)點(diǎn)都有自己的特征,我們?cè)O(shè)這些節(jié)點(diǎn)的特征組成一個(gè)N×D維的矩陣X,然后各個(gè)節(jié)點(diǎn)之間的關(guān)系也會(huì)形成一個(gè)N×N維的矩陣A,也稱(chēng)為鄰接矩陣(adjacency matrix)。X和A便是我們模型的輸入。

GCN也是一個(gè)神經(jīng)網(wǎng)絡(luò)層,它的層與層之間的傳播方式是:

這個(gè)公式中:

A波浪=A+I,I是單位矩陣

D波浪是A波浪的度矩陣(degree matrix),公式為

H是每一層的特征,對(duì)于輸入層的話(huà),H就是X

σ是非線性激活函數(shù)

我們先不用考慮為什么要這樣去設(shè)計(jì)一個(gè)公式。我們現(xiàn)在只用知道: 這個(gè)部分,是可以事先算好的,因?yàn)镈波浪由A計(jì)算而來(lái),而A是我們的輸入之一。

所以對(duì)于不需要去了解數(shù)學(xué)原理、只想應(yīng)用GCN來(lái)解決實(shí)際問(wèn)題的人來(lái)說(shuō),你只用知道:哦,這個(gè)GCN設(shè)計(jì)了一個(gè)牛逼的公式,用這個(gè)公式就可以很好地提取圖的特征。這就夠了,畢竟不是什么事情都需要知道內(nèi)部原理,這是根據(jù)需求決定的。

為了直觀理解,我們用論文中的一幅圖:

上圖中的GCN輸入一個(gè)圖,通過(guò)若干層GCN每個(gè)node的特征從X變成了Z,但是,無(wú)論中間有多少層,node之間的連接關(guān)系,即A,都是共享的。

假設(shè)我們構(gòu)造一個(gè)兩層的GCN,激活函數(shù)分別采用ReLU和Softmax,則整體的正向傳播的公式為:

最后,我們針對(duì)所有帶標(biāo)簽的節(jié)點(diǎn)計(jì)算cross entropy損失函數(shù):

就可以訓(xùn)練一個(gè)node classification的模型了。由于即使只有很少的node有標(biāo)簽也能訓(xùn)練,作者稱(chēng)他們的方法為半監(jiān)督分類(lèi)。

當(dāng)然,你也可以用這個(gè)方法去做graph classification、link prediction,只是把損失函數(shù)給變化一下即可。

三、GCN為什么是這個(gè)亞子

我前后翻看了很多人的解讀,但是讀了一圈,最讓我清楚明白為什么GCN的公式是這樣子的居然是作者Kipf自己的博客:tkipf.github.io/graph-c 推薦大家一讀。

作者給出了一個(gè)由簡(jiǎn)入繁的過(guò)程來(lái)解釋?zhuān)?/p>

我們的每一層GCN的輸入都是鄰接矩陣A和node的特征H,那么我們直接做一個(gè)內(nèi)積,再乘一個(gè)參數(shù)矩陣W,然后激活一下,就相當(dāng)于一個(gè)簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò)層嘛,是不是也可以呢?

實(shí)驗(yàn)證明,即使就這么簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò)層,就已經(jīng)很強(qiáng)大了。這個(gè)簡(jiǎn)單模型應(yīng)該大家都能理解吧,這就是正常的神經(jīng)網(wǎng)絡(luò)操作。

但是這個(gè)簡(jiǎn)單模型有幾個(gè)局限性:

只使用A的話(huà),由于A的對(duì)角線上都是0,所以在和特征矩陣H相乘的時(shí)候,只會(huì)計(jì)算一個(gè)node的所有鄰居的特征的加權(quán)和,該node自己的特征卻被忽略了。因此,我們可以做一個(gè)小小的改動(dòng),給A加上一個(gè)單位矩陣I,這樣就讓對(duì)角線元素變成1了。

A是沒(méi)有經(jīng)過(guò)歸一化的矩陣,這樣與特征矩陣相乘會(huì)改變特征原本的分布,產(chǎn)生一些不可預(yù)測(cè)的問(wèn)題。所以我們對(duì)A做一個(gè)標(biāo)準(zhǔn)化處理。首先讓A的每一行加起來(lái)為1,我們可以乘以一個(gè)

,D就是度矩陣。我們可以進(jìn)一步把 拆開(kāi)與A相乘,得到一個(gè)對(duì)稱(chēng)且歸一化的矩陣:

。

通過(guò)對(duì)上面兩個(gè)局限的改進(jìn),我們便得到了最終的層特征傳播公式:

其中 ,

為 的degree matrix。

公式中的 與對(duì)稱(chēng)歸一化拉普拉斯矩陣十分類(lèi)似,而在譜圖卷積的核心就是使用對(duì)稱(chēng)歸一化拉普拉斯矩陣,這也是GCN的卷積叫法的來(lái)歷。原論文中給出了完整的從譜卷積到GCN的一步步推導(dǎo),我是看不下去的,大家有興趣可以自行閱讀。

四、GCN有多牛

在看了上面的公式以及訓(xùn)練方法之后,我并沒(méi)有覺(jué)得GCN有多么特別,無(wú)非就是一個(gè)設(shè)計(jì)巧妙的公式嘛,也許我不用這么復(fù)雜的公式,多加一點(diǎn)訓(xùn)練數(shù)據(jù)或者把模型做深,也可能達(dá)到媲美的效果呢。

但是一直到我讀到了論文的附錄部分,我才頓時(shí)發(fā)現(xiàn):GCN原來(lái)這么牛??!

為啥呢?

因?yàn)榧词共挥?xùn)練,完全使用隨機(jī)初始化的參數(shù)W,GCN提取出來(lái)的特征就以及十分優(yōu)秀了!這跟CNN不訓(xùn)練是完全不一樣的,后者不訓(xùn)練是根本得不到什么有效特征的。

我們看論文原文:

然后作者做了一個(gè)實(shí)驗(yàn),使用一個(gè)俱樂(lè)部會(huì)員的關(guān)系網(wǎng)絡(luò),使用隨機(jī)初始化的GCN進(jìn)行特征提取,得到各個(gè)node的embedding,然后可視化:

可以發(fā)現(xiàn),在原數(shù)據(jù)中同類(lèi)別的node,經(jīng)過(guò)GCN的提取出的embedding,已經(jīng)在空間上自動(dòng)聚類(lèi)了。

而這種聚類(lèi)結(jié)果,可以和DeepWalk、node2vec這種經(jīng)過(guò)復(fù)雜訓(xùn)練得到的node embedding的效果媲美了。

說(shuō)的夸張一點(diǎn),比賽還沒(méi)開(kāi)始,GCN就已經(jīng)在終點(diǎn)了??吹竭@里我不禁猛拍大腿打呼:“NB!”

還沒(méi)訓(xùn)練就已經(jīng)效果這么好,那給少量的標(biāo)注信息,GCN的效果就會(huì)更加出色。

作者接著給每一類(lèi)的node,提供僅僅一個(gè)標(biāo)注樣本,然后去訓(xùn)練,得到的可視化效果如下:

這是整片論文讓我印象最深刻的地方。

看到這里,我覺(jué)得,以后有機(jī)會(huì),確實(shí)得詳細(xì)地吧GCN背后的數(shù)學(xué)琢磨琢磨,其中的玄妙之處究竟為何,其物理本質(zhì)為何。這個(gè)時(shí)候,回憶起在知乎上看到的各路大神從各種角度解讀GCN,例如從熱量傳播的角度,從一個(gè)群體中每個(gè)人的工資的角度,生動(dòng)形象地解釋。這一刻,歷來(lái)痛恨數(shù)學(xué)的我,我感受到了一絲數(shù)學(xué)之美,于是凌晨?jī)牲c(diǎn)的我,打開(kāi)了天貓,下單了一本正版《數(shù)學(xué)之美》。哦,數(shù)學(xué)啊,你真如一朵美麗的玫瑰,每次被你的美所吸引,都要深深受到刺痛,我何時(shí)才能懂得你、擁有你?

其他關(guān)于GCN的點(diǎn)滴:

對(duì)于很多網(wǎng)絡(luò),我們可能沒(méi)有節(jié)點(diǎn)的特征,這個(gè)時(shí)候可以使用GCN嗎?答案是可以的,如論文中作者對(duì)那個(gè)俱樂(lè)部網(wǎng)絡(luò),采用的方法就是用單位矩陣 I 替換特征矩陣 X。

我沒(méi)有任何的節(jié)點(diǎn)類(lèi)別的標(biāo)注,或者什么其他的標(biāo)注信息,可以使用GCN嗎?當(dāng)然,就如前面講的,不訓(xùn)練的GCN,也可以用來(lái)提取graph embedding,而且效果還不錯(cuò)。

GCN網(wǎng)絡(luò)的層數(shù)多少比較好?論文的作者做過(guò)GCN網(wǎng)絡(luò)深度的對(duì)比研究,在他們的實(shí)驗(yàn)中發(fā)現(xiàn),GCN層數(shù)不宜多,2-3層的效果就很好了。

這么強(qiáng)大的玩意兒,趕緊去試試吧!

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 圖像識(shí)別
    +關(guān)注

    關(guān)注

    9

    文章

    527

    瀏覽量

    39109
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5561

    瀏覽量

    122794
  • cnn
    cnn
    +關(guān)注

    關(guān)注

    3

    文章

    354

    瀏覽量

    22741
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    卷積神經(jīng)網(wǎng)絡(luò)如何監(jiān)測(cè)皮帶堵料情況 #人工智能

    卷積神經(jīng)網(wǎng)絡(luò)
    jf_60804796
    發(fā)布于 :2025年07月01日 17:08:42

    BP神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)的比較

    BP神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)在多個(gè)方面存在顯著差異,以下是對(duì)兩者的比較: 一、結(jié)構(gòu)特點(diǎn) BP神經(jīng)網(wǎng)絡(luò) : BP神經(jīng)網(wǎng)絡(luò)是一種多層的前饋
    的頭像 發(fā)表于 02-12 15:53 ?665次閱讀

    BP神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)步驟詳解

    BP神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)步驟主要包括以下幾個(gè)階段:網(wǎng)絡(luò)初始化、前向傳播、誤差計(jì)算、反向傳播和權(quán)重更新。以下是對(duì)這些步驟的詳細(xì)解釋?zhuān)?一、網(wǎng)絡(luò)初始化 確定網(wǎng)絡(luò)結(jié)構(gòu) : 根據(jù)輸入和輸出數(shù)據(jù)的特性
    的頭像 發(fā)表于 02-12 15:50 ?645次閱讀

    深度學(xué)習(xí)入門(mén):簡(jiǎn)單神經(jīng)網(wǎng)絡(luò)的構(gòu)建與實(shí)現(xiàn)

    深度學(xué)習(xí)中,神經(jīng)網(wǎng)絡(luò)是核心模型。今天我們用 Python 和 NumPy 構(gòu)建一個(gè)簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò)。 神經(jīng)網(wǎng)絡(luò)由多個(gè)神經(jīng)元組成,神經(jīng)元之間通過(guò)
    的頭像 發(fā)表于 01-23 13:52 ?528次閱讀

    人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法

    在上一篇文章中,我們介紹了傳統(tǒng)機(jī)器學(xué)習(xí)的基礎(chǔ)知識(shí)和多種算法。在本文中,我們會(huì)介紹人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法,供各位老師選擇。 01 人工神經(jīng)網(wǎng)絡(luò) ? 人工神經(jīng)網(wǎng)絡(luò)模型之所
    的頭像 發(fā)表于 01-09 10:24 ?1188次閱讀
    人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的原理和多種<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>架構(gòu)方法

    一文詳解物理信息神經(jīng)網(wǎng)絡(luò)

    物理信息神經(jīng)網(wǎng)絡(luò) (PINN) 是一種神經(jīng)網(wǎng)絡(luò),它將微分方程描述的物理定律納入其損失函數(shù)中,以引導(dǎo)學(xué)習(xí)過(guò)程得出更符合基本物理定律的解。
    的頭像 發(fā)表于 12-05 16:50 ?8383次閱讀
    一文<b class='flag-5'>詳解</b>物理信息<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>

    卷積神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)工具與框架

    卷積神經(jīng)網(wǎng)絡(luò)因其在圖像和視頻處理任務(wù)中的卓越性能而廣受歡迎。隨著深度學(xué)習(xí)技術(shù)的快速發(fā)展,多種實(shí)現(xiàn)工具和框架應(yīng)運(yùn)而生,為研究人員和開(kāi)發(fā)者提供了強(qiáng)大的支持。 TensorFlow 概述
    的頭像 發(fā)表于 11-15 15:20 ?669次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的參數(shù)調(diào)整方法

    卷積神經(jīng)網(wǎng)絡(luò)因其在處理具有空間層次結(jié)構(gòu)的數(shù)據(jù)時(shí)的卓越性能而受到青睞。然而,CNN的成功很大程度上依賴(lài)于其參數(shù)的合理設(shè)置。參數(shù)調(diào)整是一個(gè)復(fù)雜的過(guò)程,涉及到多個(gè)超參數(shù)的選擇和優(yōu)化。 網(wǎng)絡(luò)架構(gòu)參數(shù)
    的頭像 發(fā)表于 11-15 15:10 ?1206次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)在自然語(yǔ)言處理中的應(yīng)用

    自然語(yǔ)言處理是人工智能領(lǐng)域的一個(gè)重要分支,它致力于使計(jì)算機(jī)能夠理解、解釋和生成人類(lèi)語(yǔ)言。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,卷積神經(jīng)網(wǎng)絡(luò)(CNNs)作為一種強(qiáng)大的模型,在圖像識(shí)別和語(yǔ)音處理等領(lǐng)域取得了顯著成果
    的頭像 發(fā)表于 11-15 14:58 ?803次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的比較

    在深度學(xué)習(xí)領(lǐng)域,神經(jīng)網(wǎng)絡(luò)模型被廣泛應(yīng)用于各種任務(wù),如圖像識(shí)別、自然語(yǔ)言處理和游戲智能等。其中,卷積神經(jīng)網(wǎng)絡(luò)(CNNs)和傳統(tǒng)神經(jīng)網(wǎng)絡(luò)是兩種常見(jiàn)的模型。 1. 結(jié)構(gòu)差異 1.1 傳統(tǒng)
    的頭像 發(fā)表于 11-15 14:53 ?1868次閱讀

    深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)模型

    深度學(xué)習(xí)近年來(lái)在多個(gè)領(lǐng)域取得了顯著的進(jìn)展,尤其是在圖像識(shí)別、語(yǔ)音識(shí)別和自然語(yǔ)言處理等方面。卷積神經(jīng)網(wǎng)絡(luò)作為深度學(xué)習(xí)的一個(gè)分支,因其在圖像處理任務(wù)中的卓越性能而受到廣泛關(guān)注。 卷積神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 11-15 14:52 ?845次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的基本原理與算法

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)是一類(lèi)包含卷積計(jì)算且具有深度結(jié)構(gòu)的前饋神經(jīng)網(wǎng)絡(luò)(Feedforward Neural Networks
    的頭像 發(fā)表于 11-15 14:47 ?1776次閱讀

    RNN模型與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的區(qū)別

    神經(jīng)網(wǎng)絡(luò)是機(jī)器學(xué)習(xí)領(lǐng)域中的一種強(qiáng)大工具,它們能夠模擬人腦處理信息的方式。隨著技術(shù)的發(fā)展,神經(jīng)網(wǎng)絡(luò)的類(lèi)型也在不斷增加,其中循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)和傳統(tǒng)神經(jīng)網(wǎng)絡(luò)(如前饋
    的頭像 發(fā)表于 11-15 09:42 ?1125次閱讀

    關(guān)于卷積神經(jīng)網(wǎng)絡(luò),這些概念你厘清了么~

    隨著人工智能(AI)技術(shù)的快速發(fā)展,AI可以越來(lái)越多地支持以前無(wú)法實(shí)現(xiàn)或者難以實(shí)現(xiàn)的應(yīng)用。本文基于此解釋了 卷積神經(jīng)網(wǎng)絡(luò) (CNN)及其對(duì)人工智能和機(jī)器學(xué)習(xí)的意義。CNN是一種能夠從復(fù)雜數(shù)據(jù)中提
    發(fā)表于 10-24 13:56

    matlab 神經(jīng)網(wǎng)絡(luò) 數(shù)學(xué)建模數(shù)值分析

    matlab神經(jīng)網(wǎng)絡(luò) 數(shù)學(xué)建模數(shù)值分析 精通的可以討論下
    發(fā)表于 09-18 15:14