一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

100行Python代碼 輕松搞定神經(jīng)網(wǎng)絡(luò)

電子工程師 ? 來(lái)源:fqj ? 2019-05-05 08:47 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

tensorflow,pytorch這類深度學(xué)習(xí)庫(kù)來(lái)寫一個(gè)神經(jīng)網(wǎng)絡(luò)早就不稀奇了。

可是,你知道怎么用python和numpy來(lái)優(yōu)雅地搭一個(gè)神經(jīng)網(wǎng)絡(luò)嘛?

現(xiàn)如今,有多種深度學(xué)習(xí)框架可供選擇,他們帶有自動(dòng)微分、基于圖的優(yōu)化計(jì)算和硬件加速等各種重要特性。對(duì)人們而言,似乎享受這些重要特性帶來(lái)的便利已經(jīng)是理所當(dāng)然的事兒了。但其實(shí),瞧一瞧隱藏在這些特性下的東西,能更好的幫助你理解這些網(wǎng)絡(luò)究竟是如何工作的。

所以今天,文摘菌就來(lái)手把手教大家搭一個(gè)神經(jīng)網(wǎng)絡(luò)。原料就是簡(jiǎn)單的python和numpy代碼!

符號(hào)說(shuō)明

在計(jì)算反向傳播時(shí), 我們可以選擇使用函數(shù)符號(hào)、變量符號(hào)去記錄求導(dǎo)過(guò)程。它們分別對(duì)應(yīng)了計(jì)算圖中的邊和節(jié)點(diǎn)來(lái)表示它們。

給定R^n→R和x∈R^n, 那么梯度是由偏導(dǎo)?f/?j(x)組成的n維行向量

如果f:R^n→R^m和x∈R^n,那么Jacobian矩陣是下列函數(shù)組成的一個(gè)m×n的矩陣。

100行Python代碼 輕松搞定神經(jīng)網(wǎng)絡(luò)

對(duì)于給定的函數(shù)f和向量a和b如果a=f(b)那么我們用?a/?b表示Jacobian矩陣,當(dāng)a是實(shí)數(shù)時(shí)則表示梯度

鏈?zhǔn)椒▌t

給定三個(gè)分屬于不同向量空間的向量a∈A及c∈C和兩個(gè)可微函數(shù)f:A→B及g:B→C使得f(a)=b和g(b)=c,我們能得到復(fù)合函數(shù)的Jacobian矩陣是函數(shù)f和g的jacobian矩陣的乘積:

100行Python代碼 輕松搞定神經(jīng)網(wǎng)絡(luò)

這就是大名鼎鼎的鏈?zhǔn)椒▌t。提出于上世紀(jì)60、70年代的反向傳播算法就是應(yīng)用了鏈?zhǔn)椒▌t來(lái)計(jì)算一個(gè)實(shí)函數(shù)相對(duì)于其不同參數(shù)的梯度的。

要知道我們的最終目標(biāo)是通過(guò)沿著梯度的相反方向來(lái)逐步找到函數(shù)的最小值 (當(dāng)然最好是全局最小值), 因?yàn)橹辽僭诰植縼?lái)說(shuō), 這樣做將使得函數(shù)值逐步下降。當(dāng)我們有兩個(gè)參數(shù)需要優(yōu)化時(shí), 整個(gè)過(guò)程如圖所示:

100行Python代碼 輕松搞定神經(jīng)網(wǎng)絡(luò)

反向模式求導(dǎo)

假設(shè)函數(shù)fi(ai)=ai+1由多于兩個(gè)函數(shù)復(fù)合而成,我們可以反復(fù)應(yīng)用公式求導(dǎo)并得到:

100行Python代碼 輕松搞定神經(jīng)網(wǎng)絡(luò)

可以有很多種方式計(jì)算這個(gè)乘積,最常見(jiàn)的是從左向右或從右向左。

如果an是一個(gè)標(biāo)量,那么在計(jì)算整個(gè)梯度的時(shí)候我們可以通過(guò)先計(jì)算?an/?an-1并逐步右乘所有的Jacobian矩陣?ai/?ai-1來(lái)得到。這個(gè)操作有時(shí)被稱作VJP或向量-Jacobian乘積(Vector-Jacobian Product)。

又因?yàn)檎麄€(gè)過(guò)程中我們是從計(jì)算?an/?an-1開(kāi)始逐步計(jì)算?an/?an-2,?an/?an-3等梯度到最后,并保存中間值,所以這個(gè)過(guò)程被稱為反向模式求導(dǎo)。最終,我們可以計(jì)算出an相對(duì)于所有其他變量的梯度。

100行Python代碼 輕松搞定神經(jīng)網(wǎng)絡(luò)

相對(duì)而言,前向模式的過(guò)程正相反。它從計(jì)算Jacobian矩陣如?a2/?a1開(kāi)始,并左乘?a3/?a2來(lái)計(jì)算?a3/?a1。如果我們繼續(xù)乘上?ai/?ai-1并保存中間值,最終我們可以得到所有變量相對(duì)于?a2/?a1的梯度。當(dāng)?a2/?a1是標(biāo)量時(shí),所有乘積都是列向量,這被稱為Jacobian向量乘積(或者JVP,Jacobian-Vector Product)。

100行Python代碼 輕松搞定神經(jīng)網(wǎng)絡(luò)

你大概已經(jīng)猜到了,對(duì)于反向傳播來(lái)說(shuō),我們更偏向應(yīng)用反向模式——因?yàn)槲覀兿胍鸩降玫綋p失函數(shù)對(duì)于每層參數(shù)的梯度。正向模式雖然也可以計(jì)算需要的梯度, 但因?yàn)橹貜?fù)計(jì)算太多而效率很低。

計(jì)算梯度的過(guò)程看起來(lái)像是有很多高維矩陣相乘, 但實(shí)際上,Jacobian矩陣常常是稀疏、塊或者對(duì)角矩陣,又因?yàn)槲覀冎魂P(guān)心將其右乘行向量的結(jié)果,所以就不需要耗費(fèi)太多計(jì)算和存儲(chǔ)資源。

在本文中, 我們的方法主要用于按順序逐層搭建的神經(jīng)網(wǎng)絡(luò), 但同樣的方法也適用于計(jì)算梯度的其他算法或計(jì)算圖。

深度神經(jīng)網(wǎng)絡(luò)

在典型的監(jiān)督機(jī)器學(xué)習(xí)算法中, 我們通常用到一個(gè)很復(fù)雜函數(shù),它的輸入是存有標(biāo)簽樣本數(shù)值特征的張量。此外,還有很多用于描述模型的權(quán)重張量。

損失函數(shù)是關(guān)于樣本和權(quán)重的標(biāo)量函數(shù), 它是衡量模型輸出與預(yù)期標(biāo)簽的差距的指標(biāo)。我們的目標(biāo)是找到最合適的權(quán)重讓損失最小。在深度學(xué)習(xí)中, 損失函數(shù)被表示為一串易于求導(dǎo)的簡(jiǎn)單函數(shù)的復(fù)合。所有這些簡(jiǎn)單函數(shù)(除了最后一個(gè)函數(shù)),都是我們指的層, 而每一層通常有兩組參數(shù): 輸入 (可以是上一層的輸出) 和權(quán)重。

而最后一個(gè)函數(shù)代表了損失度量, 它也有兩組參數(shù): 模型輸出y和真實(shí)標(biāo)簽y^。例如, 如果損失度量l為平方誤差, 則?l/?y為 2 avg(y-y^)。損失度量的梯度將是應(yīng)用反向模式求導(dǎo)的起始行向量。

Autograd

自動(dòng)求導(dǎo)背后的思想已是相當(dāng)成熟了。它可以在運(yùn)行時(shí)或編譯過(guò)程中完成,但如何實(shí)現(xiàn)會(huì)對(duì)性能產(chǎn)生巨大影響。我建議你能認(rèn)真閱讀 HIPS autograd的 Python 實(shí)現(xiàn),來(lái)真正了解autograd。

核心想法其實(shí)始終未變。從我們?cè)趯W(xué)校學(xué)習(xí)如何求導(dǎo)時(shí), 就應(yīng)該知道這一點(diǎn)了。如果我們能夠追蹤最終求出標(biāo)量輸出的計(jì)算, 并且我們知道如何對(duì)簡(jiǎn)單操作求導(dǎo) (例如加法、乘法、冪、指數(shù)、對(duì)數(shù)等等), 我們就可以算出輸出的梯度。

假設(shè)我們有一個(gè)線性的中間層f,由矩陣乘法表示(暫時(shí)不考慮偏置):

100行Python代碼 輕松搞定神經(jīng)網(wǎng)絡(luò)

為了用梯度下降法調(diào)整w值,我們需要計(jì)算梯度?l/?w。這里我們可以觀察到,改變y從而影響l是一個(gè)關(guān)鍵。

每一層都必須滿足下面這個(gè)條件: 如果給出了損失函數(shù)相對(duì)于這一層輸出的梯度, 就可以得到損失函數(shù)相對(duì)于這一層輸入(即上一層的輸出)的梯度。

現(xiàn)在應(yīng)用兩次鏈?zhǔn)椒▌t得到損失函數(shù)相對(duì)于w的梯度:

100行Python代碼 輕松搞定神經(jīng)網(wǎng)絡(luò)

相對(duì)于x的是:

100行Python代碼 輕松搞定神經(jīng)網(wǎng)絡(luò)

因此, 我們既可以后向傳遞一個(gè)梯度, 使上一層得到更新并更新層間權(quán)重, 以優(yōu)化損失, 這就行啦!

動(dòng)手實(shí)踐

先來(lái)看看代碼, 或者直接試試Colab Notebook

我們從封裝了一個(gè)張量及其梯度的類(class)開(kāi)始。

現(xiàn)在我們可以創(chuàng)建一個(gè)layer類,關(guān)鍵的想法是,在前向傳播時(shí),我們返回這一層的輸出和可以接受輸出梯度和輸入梯度的函數(shù),并在過(guò)程中更新權(quán)重梯度。

然后, 訓(xùn)練過(guò)程將有三個(gè)步驟, 計(jì)算前向傳遞, 然后后向傳遞, 最后更新權(quán)重。這里關(guān)鍵的一點(diǎn)是把更新權(quán)重放在最后, 因?yàn)闄?quán)重可以在多個(gè)層中重用,我們更希望在需要的時(shí)候再更新它。

class Layer: def __init__(self): self.parameters = [] def forward(self, X): """ Override me! A simple no-op layer, it passes forward the inputs """ return X, lambda D: D def build_param(self, tensor): """ Creates a parameter from a tensor, and saves a reference for the update step """ param = Parameter(tensor) self.parameters.append(param) return param def update(self, optimizer): for param in self.parameters: optimizer.update(param)

標(biāo)準(zhǔn)的做法是將更新參數(shù)的工作交給優(yōu)化器, 優(yōu)化器在每一批(batch)后都會(huì)接收參數(shù)的實(shí)例。最簡(jiǎn)單和最廣為人知的優(yōu)化方法是mini-batch隨機(jī)梯度下降。

class SGDOptimizer(): def __init__(self, lr=0.1): self.lr = lr def update(self, param): param.tensor -= self.lr * param.gradient param.gradient.fill(0)

在此框架下, 并使用前面計(jì)算的結(jié)果后, 線性層如下所示:

class Linear(Layer): def __init__(self, inputs, outputs): super().__init__() tensor = np.random.randn(inputs, outputs) * np.sqrt(1 / inputs) self.weights = self.build_param(tensor) self.bias = self.build_param(np.zeros(outputs)) def forward(self, X): def backward(D): self.weights.gradient += X.T @ D self.bias.gradient += D.sum(axis=0) return D @ self.weights.tensor.T return X @ self.weights.tensor + self.bias.tensor, backward

接下來(lái)看看另一個(gè)常用的層,激活層。它們屬于點(diǎn)式(pointwise)非線性函數(shù)。點(diǎn)式函數(shù)的 Jacobian矩陣是對(duì)角矩陣, 這意味著當(dāng)乘以梯度時(shí), 它是逐點(diǎn)相乘的。

class ReLu(Layer): def forward(self, X): mask = X > 0 return X * mask, lambda D: D * mask

計(jì)算Sigmoid函數(shù)的梯度略微有一點(diǎn)難度,而它也是逐點(diǎn)計(jì)算的:

class Sigmoid(Layer): def forward(self, X): S = 1 / (1 + np.exp(-X)) def backward(D): return D * S * (1 - S) return S, backward

當(dāng)我們按序構(gòu)建很多層后,可以遍歷它們并先后得到每一層的輸出,我們可以把backward函數(shù)存在一個(gè)列表內(nèi),并在計(jì)算反向傳播時(shí)使用,這樣就可以直接得到相對(duì)于輸入層的損失梯度。就是這么神奇:

class Sequential(Layer): def __init__(self, *layers): super().__init__() self.layers = layers for layer in layers: self.parameters.extend(layer.parameters) def forward(self, X): backprops = [] Y = X for layer in self.layers: Y, backprop = layer.forward(Y) backprops.append(backprop) def backward(D): for backprop in reversed(backprops): D = backprop(D) return D return Y, backward

正如我們前面提到的,我們將需要定義批樣本的損失函數(shù)和梯度。一個(gè)典型的例子是MSE,它被常用在回歸問(wèn)題里,我們可以這樣實(shí)現(xiàn)它:

def mse_loss(Yp, Yt): diff = Yp - Yt return np.square(diff).mean(), 2 * diff / len(diff)

就差一點(diǎn)了!現(xiàn)在,我們定義了兩種層,以及合并它們的方法,下面如何訓(xùn)練呢?我們可以使用類似于scikit-learn或者Keras中的API。

class Learner(): def __init__(self, model, loss, optimizer): self.model = model self.loss = loss self.optimizer = optimizer def fit_batch(self, X, Y): Y_, backward = self.model.forward(X) L, D = self.loss(Y_, Y) backward(D) self.model.update(self.optimizer) return L def fit(self, X, Y, epochs, bs): losses = [] for epoch in range(epochs): p = np.random.permutation(len(X)) X, Y = X[p], Y[p] loss = 0.0 for i in range(0, len(X), bs): loss += self.fit_batch(X[i:i + bs], Y[i:i + bs]) losses.append(loss) return losses

這就行了!如果你跟隨著我的思路,你可能就會(huì)發(fā)現(xiàn)其實(shí)有幾行代碼是可以被省掉的。

這代碼能用不?

現(xiàn)在可以用一些數(shù)據(jù)測(cè)試下我們的代碼了。

X = np.random.randn(100, 10)w = np.random.randn(10, 1)b = np.random.randn(1)Y = X @ W + Bmodel = Linear(10, 1)learner = Learner(model, mse_loss, SGDOptimizer(lr=0.05))learner.fit(X, Y, epochs=10, bs=10)

100行Python代碼 輕松搞定神經(jīng)網(wǎng)絡(luò)

我一共訓(xùn)練了10輪。

我們還能檢查學(xué)到的權(quán)重和真實(shí)的權(quán)重是否一致。

print(np.linalg.norm(m.weights.tensor - W), (m.bias.tensor - B)[0])> 1.848553648022619e-05 5.69305886743976e-06

好了,就這么簡(jiǎn)單。讓我們?cè)僭囋嚪蔷€性數(shù)據(jù)集,例如y=x1x2,并且再加上一個(gè)Sigmoid非線性層和另一個(gè)線性層讓我們的模型更復(fù)雜些。像下面這樣:

X = np.random.randn(1000, 2)Y = X[:, 0] * X[:, 1]losses1 = Learner( Sequential(Linear(2, 1)), mse_loss, SGDOptimizer(lr=0.01)).fit(X, Y, epochs=50, bs=50)losses2 = Learner( Sequential( Linear(2, 10), Sigmoid(), Linear(10, 1) ), mse_loss, SGDOptimizer(lr=0.3)).fit(X, Y, epochs=50, bs=50)plt.plot(losses1)plt.plot(losses2)plt.legend(['1 Layer', '2 Layers'])plt.show()

100行Python代碼 輕松搞定神經(jīng)網(wǎng)絡(luò)

比較單一層vs兩層模型在使用sigmoid激活函數(shù)的情況下的訓(xùn)練損失。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4814

    瀏覽量

    103564
  • 代碼
    +關(guān)注

    關(guān)注

    30

    文章

    4900

    瀏覽量

    70697
  • python
    +關(guān)注

    關(guān)注

    56

    文章

    4827

    瀏覽量

    86701

原文標(biāo)題:100行Python代碼,輕松搞定神經(jīng)網(wǎng)絡(luò)

文章出處:【微信號(hào):BigDataDigest,微信公眾號(hào):大數(shù)據(jù)文摘】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    【PYNQ-Z2試用體驗(yàn)】神經(jīng)網(wǎng)絡(luò)基礎(chǔ)知識(shí)

    python語(yǔ)言,可以很輕松地實(shí)現(xiàn)復(fù)雜的數(shù)學(xué)運(yùn)算,降低編程難度。下一篇文章,將通過(guò)具體代碼,演示基于神經(jīng)網(wǎng)絡(luò)的手寫圖形識(shí)別。
    發(fā)表于 03-03 22:10

    卷積神經(jīng)網(wǎng)絡(luò)如何使用

    卷積神經(jīng)網(wǎng)絡(luò)(CNN)究竟是什么,鑒于神經(jīng)網(wǎng)絡(luò)在工程上經(jīng)歷了曲折的歷史,您為什么還會(huì)在意它呢? 對(duì)于這些非常中肯的問(wèn)題,我們似乎可以給出相對(duì)簡(jiǎn)明的答案。
    發(fā)表于 07-17 07:21

    【案例分享】ART神經(jīng)網(wǎng)絡(luò)與SOM神經(jīng)網(wǎng)絡(luò)

    今天學(xué)習(xí)了兩個(gè)神經(jīng)網(wǎng)絡(luò),分別是自適應(yīng)諧振(ART)神經(jīng)網(wǎng)絡(luò)與自組織映射(SOM)神經(jīng)網(wǎng)絡(luò)。整體感覺(jué)不是很難,只不過(guò)一些最基礎(chǔ)的概念容易理解不清。首先ART神經(jīng)網(wǎng)絡(luò)是競(jìng)爭(zhēng)學(xué)習(xí)的一個(gè)代表,
    發(fā)表于 07-21 04:30

    如何構(gòu)建神經(jīng)網(wǎng)絡(luò)?

    原文鏈接:http://tecdat.cn/?p=5725 神經(jīng)網(wǎng)絡(luò)是一種基于現(xiàn)有數(shù)據(jù)創(chuàng)建預(yù)測(cè)的計(jì)算系統(tǒng)。如何構(gòu)建神經(jīng)網(wǎng)絡(luò)?神經(jīng)網(wǎng)絡(luò)包括:輸入層:根據(jù)現(xiàn)有數(shù)據(jù)獲取輸入的層隱藏層:使用反向傳播優(yōu)化輸入變量權(quán)重的層,以提高模型的預(yù)測(cè)
    發(fā)表于 07-12 08:02

    不可錯(cuò)過(guò)!人工神經(jīng)網(wǎng)絡(luò)算法、PID算法、Python人工智能學(xué)習(xí)等資料包分享(附源代碼

    為了方便大家查找技術(shù)資料,電子發(fā)燒友小編為大家整理一些精華資料,讓大家可以參考學(xué)習(xí),希望對(duì)廣大電子愛(ài)好者有所幫助。 1.人工神經(jīng)網(wǎng)絡(luò)算法的學(xué)習(xí)方法與應(yīng)用實(shí)例(pdf彩版) 人工神經(jīng) 網(wǎng)絡(luò)
    發(fā)表于 09-13 16:41

    如何提升AI算法速度 打造接近人腦規(guī)模的神經(jīng)網(wǎng)絡(luò)

    SET的靈感來(lái)自生物網(wǎng)絡(luò)以及特定神經(jīng)網(wǎng)絡(luò),而這些特定神經(jīng)網(wǎng)絡(luò)之所以運(yùn)行效率高有三個(gè)特征,包括網(wǎng)絡(luò)連接性相對(duì)較低、神經(jīng)中樞稀少以及路徑短。
    發(fā)表于 07-06 09:32 ?1173次閱讀

    Python從頭實(shí)現(xiàn)一個(gè)神經(jīng)網(wǎng)絡(luò)來(lái)理解神經(jīng)網(wǎng)絡(luò)的原理1

    有個(gè)事情可能會(huì)讓初學(xué)者驚訝:神經(jīng)網(wǎng)絡(luò)模型并不復(fù)雜!『神經(jīng)網(wǎng)絡(luò)』這個(gè)詞讓人覺(jué)得很高大上,但實(shí)際上神經(jīng)網(wǎng)絡(luò)算法要比人們想象的簡(jiǎn)單。 這篇文章完全是為新手準(zhǔn)備的。我們會(huì)通過(guò)用Python
    的頭像 發(fā)表于 02-27 15:05 ?959次閱讀
    用<b class='flag-5'>Python</b>從頭實(shí)現(xiàn)一個(gè)<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>來(lái)理解<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的原理1

    Python從頭實(shí)現(xiàn)一個(gè)神經(jīng)網(wǎng)絡(luò)來(lái)理解神經(jīng)網(wǎng)絡(luò)的原理2

    有個(gè)事情可能會(huì)讓初學(xué)者驚訝:神經(jīng)網(wǎng)絡(luò)模型并不復(fù)雜!『神經(jīng)網(wǎng)絡(luò)』這個(gè)詞讓人覺(jué)得很高大上,但實(shí)際上神經(jīng)網(wǎng)絡(luò)算法要比人們想象的簡(jiǎn)單。 這篇文章完全是為新手準(zhǔn)備的。我們會(huì)通過(guò)用Python
    的頭像 發(fā)表于 02-27 15:06 ?854次閱讀
    用<b class='flag-5'>Python</b>從頭實(shí)現(xiàn)一個(gè)<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>來(lái)理解<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的原理2

    Python從頭實(shí)現(xiàn)一個(gè)神經(jīng)網(wǎng)絡(luò)來(lái)理解神經(jīng)網(wǎng)絡(luò)的原理3

    有個(gè)事情可能會(huì)讓初學(xué)者驚訝:神經(jīng)網(wǎng)絡(luò)模型并不復(fù)雜!『神經(jīng)網(wǎng)絡(luò)』這個(gè)詞讓人覺(jué)得很高大上,但實(shí)際上神經(jīng)網(wǎng)絡(luò)算法要比人們想象的簡(jiǎn)單。 這篇文章完全是為新手準(zhǔn)備的。我們會(huì)通過(guò)用Python
    的頭像 發(fā)表于 02-27 15:06 ?1011次閱讀
    用<b class='flag-5'>Python</b>從頭實(shí)現(xiàn)一個(gè)<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>來(lái)理解<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的原理3

    Python從頭實(shí)現(xiàn)一個(gè)神經(jīng)網(wǎng)絡(luò)來(lái)理解神經(jīng)網(wǎng)絡(luò)的原理4

    有個(gè)事情可能會(huì)讓初學(xué)者驚訝:神經(jīng)網(wǎng)絡(luò)模型并不復(fù)雜!『神經(jīng)網(wǎng)絡(luò)』這個(gè)詞讓人覺(jué)得很高大上,但實(shí)際上神經(jīng)網(wǎng)絡(luò)算法要比人們想象的簡(jiǎn)單。 這篇文章完全是為新手準(zhǔn)備的。我們會(huì)通過(guò)用Python
    的頭像 發(fā)表于 02-27 15:06 ?978次閱讀
    用<b class='flag-5'>Python</b>從頭實(shí)現(xiàn)一個(gè)<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>來(lái)理解<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的原理4

    卷積神經(jīng)網(wǎng)絡(luò)python代碼

    卷積神經(jīng)網(wǎng)絡(luò)python代碼 ; 卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡(jiǎn)稱CNN)是一種可以在圖像處理和語(yǔ)音識(shí)別等領(lǐng)域中很好地應(yīng)用的
    的頭像 發(fā)表于 08-21 16:41 ?1313次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)算法代碼python

    卷積神經(jīng)網(wǎng)絡(luò)算法代碼python? 卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)是深度學(xué)習(xí)中最為重要的算法之一。它在計(jì)算機(jī)視覺(jué)、自然語(yǔ)言處理、語(yǔ)音識(shí)
    的頭像 發(fā)表于 08-21 16:50 ?4984次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)算法代碼matlab

    卷積神經(jīng)網(wǎng)絡(luò)算法代碼matlab 卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)是一種深度學(xué)習(xí)網(wǎng)絡(luò)模型,其特點(diǎn)是具有卷積層(Convolutional
    的頭像 發(fā)表于 08-21 16:50 ?1523次閱讀

    cnn卷積神經(jīng)網(wǎng)絡(luò)簡(jiǎn)介 cnn卷積神經(jīng)網(wǎng)絡(luò)代碼

    cnn卷積神經(jīng)網(wǎng)絡(luò)簡(jiǎn)介 cnn卷積神經(jīng)網(wǎng)絡(luò)代碼 卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡(jiǎn)稱CNN)是目前深度學(xué)習(xí)領(lǐng)域中應(yīng)用廣泛的一種
    的頭像 發(fā)表于 08-21 17:16 ?3298次閱讀

    如何使用Python進(jìn)行神經(jīng)網(wǎng)絡(luò)編程

    。 為什么使用Python? Python是一種廣泛使用的高級(jí)編程語(yǔ)言,以其易讀性和易用性而聞名。Python擁有強(qiáng)大的庫(kù),如TensorFlow、Keras和PyTorch,這些庫(kù)提供了構(gòu)建和訓(xùn)練
    的頭像 發(fā)表于 07-02 09:58 ?773次閱讀