一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

從零開始學(xué)習(xí)用Python構(gòu)建神經(jīng)網(wǎng)絡(luò)

人工智能和機(jī)器人研究院 ? 來源:未知 ? 作者:胡薇 ? 2018-05-30 08:54 ? 次閱讀

這是一份用于理解深度學(xué)習(xí)內(nèi)部運(yùn)作方式的初學(xué)者指南。作者根據(jù)自己從零開始學(xué)習(xí)用 Python 構(gòu)建神經(jīng)網(wǎng)絡(luò)的經(jīng)驗(yàn),編寫了一份攻略。內(nèi)容涵蓋神經(jīng)網(wǎng)絡(luò)定義、損失函數(shù)、前向傳播、反向傳播、梯度下降算法,對(duì)于想要了解深度學(xué)習(xí)運(yùn)作原理的各位來說,內(nèi)容精彩不可錯(cuò)過。

動(dòng)機(jī):為了深入了解深度學(xué)習(xí),我決定從零開始構(gòu)建神經(jīng)網(wǎng)絡(luò),并且不使用類似 Tensorflow 的深度學(xué)習(xí)庫(kù)。我相信,對(duì)于任何有理想的數(shù)據(jù)科學(xué)家而言,理解神經(jīng)網(wǎng)絡(luò)內(nèi)部的運(yùn)作方式都非常重要。

本文涵蓋了我學(xué)到的所有東西,希望你也能從中獲益!

什么是神經(jīng)網(wǎng)絡(luò)?

許多有關(guān)神經(jīng)網(wǎng)絡(luò)的介紹資料會(huì)將神經(jīng)網(wǎng)絡(luò)與大腦進(jìn)行類比。但我發(fā)現(xiàn),將神經(jīng)網(wǎng)絡(luò)簡(jiǎn)單地描述為一個(gè)從輸入映射到輸出的數(shù)學(xué)函數(shù)理解起來更容易。

神經(jīng)網(wǎng)絡(luò)由以下部分組成:

一個(gè)輸入層,x

任意數(shù)量的隱藏層

一個(gè)輸出層,?

每?jī)蓪又g都有一組權(quán)重和偏置,W 和 b

每個(gè)隱藏層都要選擇一個(gè)激活函數(shù) σ。在本文中,我們選用 Sigmoid 激活函數(shù)。

下圖展示了 2 層神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)(請(qǐng)注意,在計(jì)算神經(jīng)網(wǎng)絡(luò)層數(shù)的時(shí)候,通常不計(jì)入輸入層)。

二層神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)

利用 Python 建立神經(jīng)網(wǎng)絡(luò)非常容易。

class NeuralNetwork: def __init__(self, x, y): self.input = x self.weights1 = np.random.rand(self.input.shape[1],4) self.weights2 = np.random.rand(4,1) self.y = y self.output = np.zeros(y.shape)

訓(xùn)練神經(jīng)網(wǎng)絡(luò)

一個(gè)簡(jiǎn)單 2 層神經(jīng)網(wǎng)絡(luò)的輸出 ? 可以表示為:

你可能注意到,在上面的等式當(dāng)中,權(quán)重 W 和偏置 b 是影響輸出 ? 的唯一變量。

自然,權(quán)重和偏差的正確值決定了預(yù)測(cè)的強(qiáng)度。根據(jù)輸入數(shù)據(jù)微調(diào)權(quán)重和偏置的過程稱為神經(jīng)網(wǎng)絡(luò)訓(xùn)練。

訓(xùn)練過程的每一次迭代包含以下步驟:

計(jì)算預(yù)測(cè)的輸出 ?,稱為前向傳播

更新權(quán)重和偏置,稱為反向傳播

以下流程圖說明了這個(gè)過程:

前向傳播

正如我們?cè)谏蠄D中所看到的,前向傳播只是一個(gè)簡(jiǎn)單的計(jì)算。對(duì)于一個(gè)基本的 2 層神經(jīng)網(wǎng)絡(luò),神經(jīng)網(wǎng)絡(luò)的輸出計(jì)算如下:

我們可以在 Python 代碼中添加一個(gè)前向傳播函數(shù)來做到這一點(diǎn)。簡(jiǎn)單起見,我們假設(shè)偏置為 0。

class NeuralNetwork: def __init__(self, x, y): self.input = x self.weights1 = np.random.rand(self.input.shape[1],4) self.weights2 = np.random.rand(4,1) self.y = y self.output = np.zeros(self.y.shape) def feedforward(self): self.layer1 = sigmoid(np.dot(self.input, self.weights1)) self.output = sigmoid(np.dot(self.layer1, self.weights2))

然而,我們?nèi)匀恍枰环N方法來評(píng)估我們的預(yù)測(cè)的「優(yōu)秀程度」(即,我們的預(yù)測(cè)與真實(shí)值相差多少?)這就需要用到損失函數(shù)了。

損失函數(shù)

損失函數(shù)有很多種,而我們問題的性質(zhì)會(huì)決定我們使用哪種損失函數(shù)。在本文中,我們將采用簡(jiǎn)單的誤差平方和。

誤差平方和,即每個(gè)預(yù)測(cè)值和真實(shí)值之間差值的平均值。這個(gè)差值是取了平方項(xiàng)的,所以我們測(cè)量的是差值的絕對(duì)值。

在訓(xùn)練過程中,我們的目標(biāo)是找到一組最佳的權(quán)重和偏置,使損失函數(shù)最小化。

反向傳播

現(xiàn)在,我們已經(jīng)找到了預(yù)測(cè)誤差的方法(損失函數(shù)),那么我們需要一種方法將錯(cuò)誤「?jìng)鞑ァ够厝?,從而更新?quán)重和偏置。

為了確定權(quán)重和偏置調(diào)整的適當(dāng)值,我們需要知道損失函數(shù)對(duì)權(quán)重和偏置的偏導(dǎo)數(shù)。

從微積分的角度來看,函數(shù)的偏導(dǎo)數(shù)也就是函數(shù)的斜率。

梯度下降算法

如果我們知道了偏導(dǎo)數(shù),我們可以通過簡(jiǎn)單增加或減少偏導(dǎo)數(shù)(如上圖所示)的方式來更新權(quán)重和偏置。這就是所謂的梯度下降。

然而,由于損失函數(shù)的方程不包含權(quán)重和偏置,所以我們不能直接計(jì)算損失函數(shù)對(duì)權(quán)重和偏置的偏導(dǎo)數(shù)。因此,我們需要鏈?zhǔn)椒▌t來幫助計(jì)算。

以上是用于計(jì)算損失函數(shù)對(duì)權(quán)重偏導(dǎo)數(shù)的鏈?zhǔn)椒▌t。簡(jiǎn)單起見,我們只展示了一層神經(jīng)網(wǎng)絡(luò)的偏導(dǎo)數(shù)。

唷!這看起來不大好看,但這能讓我們獲得所需——損失函數(shù)對(duì)權(quán)重的偏導(dǎo)數(shù)(斜率),以便相應(yīng)調(diào)整權(quán)重。

既然我們已經(jīng)有了鏈?zhǔn)椒▌t公式,接下來我們把反向傳播函數(shù)添加到 Python 代碼中。

class NeuralNetwork: def __init__(self, x, y): self.input = x self.weights1 = np.random.rand(self.input.shape[1],4) self.weights2 = np.random.rand(4,1) self.y = y self.output = np.zeros(self.y.shape) def feedforward(self): self.layer1 = sigmoid(np.dot(self.input, self.weights1)) self.output = sigmoid(np.dot(self.layer1, self.weights2)) def backprop(self): # application of the chain rule to find derivative of the loss function with respect to weights2 and weights1 d_weights2 = np.dot(self.layer1.T, (2*(self.y - self.output) * sigmoid_derivative(self.output))) d_weights1 = np.dot(self.input.T, (np.dot(2*(self.y - self.output) * sigmoid_derivative(self.output), self.weights2.T) * sigmoid_derivative(self.layer1))) # update the weights with the derivative (slope) of the loss function self.weights1 += d_weights1 self.weights2 += d_weights2

整合

既然我們已經(jīng)有了做前向傳播和反向傳播的完整 Python 代碼,我們可以將神經(jīng)網(wǎng)絡(luò)應(yīng)用到一個(gè)示例中,看看它的效果。

我們的神經(jīng)網(wǎng)絡(luò)應(yīng)該能夠習(xí)得理想的權(quán)重集合以表示這個(gè)函數(shù)。請(qǐng)注意,對(duì)于我們來說,僅通過檢查來計(jì)算權(quán)重并非一件小事。

如果我們將神經(jīng)網(wǎng)絡(luò)進(jìn)行 1500 次迭代,看看會(huì)發(fā)生什么。下圖展示了每次迭代的損失函數(shù)值,我們可以清晰地發(fā)現(xiàn)損失函數(shù)單調(diào)下降到最小值。這與我們前面討論的梯度下降算法是一致的。

讓我們看看神經(jīng)網(wǎng)絡(luò)在進(jìn)行 1500 次迭代后的最終預(yù)測(cè)(輸出):

進(jìn)行 1500 次迭代后的預(yù)測(cè)值

我們成功了!我們的前向傳播和反向傳播算法成功訓(xùn)練了神經(jīng)網(wǎng)絡(luò),且預(yù)測(cè)值收斂到了真實(shí)值。

請(qǐng)注意,預(yù)測(cè)值和真實(shí)值之間還是有一些輕微差異的。這是可取的,因?yàn)樗乐沽诉^度擬合,并且使得神經(jīng)網(wǎng)絡(luò)具有更強(qiáng)的泛化能力。

下一步

幸運(yùn)的是,我們的探索還沒有結(jié)束。關(guān)于神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)還有很多需要學(xué)習(xí)的地方。例如:

除了 Sigmoid 函數(shù)之外,我們還可以使用哪些激活函數(shù)?

在訓(xùn)練神經(jīng)網(wǎng)絡(luò)時(shí)使用學(xué)習(xí)率

使用卷積進(jìn)行圖像分類任務(wù)

最后一點(diǎn)想法

在撰寫此文的過程中,我已經(jīng)學(xué)到了很多,希望本文也能對(duì)你有所幫助。

在沒有完全了解神經(jīng)網(wǎng)絡(luò)內(nèi)部工作原理的情況下,雖然使用諸如 TensorFlow 和 Keras 之類的深度學(xué)習(xí)庫(kù)可以讓我們很容易地建立深度網(wǎng)絡(luò),但我認(rèn)為對(duì)于有抱負(fù)的數(shù)據(jù)科學(xué)家而言,深入理解神經(jīng)網(wǎng)絡(luò)還是大有裨益的。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • python
    +關(guān)注

    關(guān)注

    56

    文章

    4822

    瀏覽量

    85874
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5547

    瀏覽量

    122315

原文標(biāo)題:無需深度學(xué)習(xí)框架,如何從零開始用Python構(gòu)建神經(jīng)網(wǎng)絡(luò)

文章出處:【微信號(hào):gh_ecbcc3b6eabf,微信公眾號(hào):人工智能和機(jī)器人研究院】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)的關(guān)系

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)之間存在著密切的關(guān)系,以下是對(duì)它們之間關(guān)系的介紹: 一、BP神經(jīng)網(wǎng)絡(luò)的基本概念 BP神經(jīng)網(wǎng)絡(luò),即反向傳播神經(jīng)網(wǎng)絡(luò)(Ba
    的頭像 發(fā)表于 02-12 15:15 ?566次閱讀

    深度學(xué)習(xí)入門:簡(jiǎn)單神經(jīng)網(wǎng)絡(luò)構(gòu)建與實(shí)現(xiàn)

    深度學(xué)習(xí)中,神經(jīng)網(wǎng)絡(luò)是核心模型。今天我們用 Python 和 NumPy 構(gòu)建一個(gè)簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò)神經(jīng)
    的頭像 發(fā)表于 01-23 13:52 ?395次閱讀

    如何使用Python構(gòu)建LSTM神經(jīng)網(wǎng)絡(luò)模型

    構(gòu)建一個(gè)LSTM(長(zhǎng)短期記憶)神經(jīng)網(wǎng)絡(luò)模型是一個(gè)涉及多個(gè)步驟的過程。以下是使用Python和Keras庫(kù)構(gòu)建LSTM模型的指南。 1. 安裝必要的庫(kù) 首先,確保你已經(jīng)安裝了
    的頭像 發(fā)表于 11-13 10:10 ?1230次閱讀

    如何構(gòu)建多層神經(jīng)網(wǎng)絡(luò)

    構(gòu)建多層神經(jīng)網(wǎng)絡(luò)(MLP, Multi-Layer Perceptron)模型是一個(gè)在機(jī)器學(xué)習(xí)和深度學(xué)習(xí)領(lǐng)域廣泛使用的技術(shù),尤其在處理分類和回歸問題時(shí)。在本文中,我們將深入探討如何從頭
    的頭像 發(fā)表于 07-19 17:19 ?1333次閱讀

    Python自動(dòng)訓(xùn)練人工神經(jīng)網(wǎng)絡(luò)

    人工神經(jīng)網(wǎng)絡(luò)(ANN)是機(jī)器學(xué)習(xí)中一種重要的模型,它模仿了人腦神經(jīng)元的工作方式,通過多層節(jié)點(diǎn)(神經(jīng)元)之間的連接和權(quán)重調(diào)整來學(xué)習(xí)和解決問題。
    的頭像 發(fā)表于 07-19 11:54 ?567次閱讀

    如何構(gòu)建三層bp神經(jīng)網(wǎng)絡(luò)模型

    引言 BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network)是一種前饋神經(jīng)網(wǎng)絡(luò),通過反向傳播算法進(jìn)行訓(xùn)練。三層BP神經(jīng)網(wǎng)絡(luò)由輸入層、隱藏層和輸出層組成,具有較好的泛化能力和
    的頭像 發(fā)表于 07-11 10:55 ?833次閱讀

    BP神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)機(jī)制

    BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network),即反向傳播神經(jīng)網(wǎng)絡(luò),是一種基于梯度下降算法的多層前饋神經(jīng)網(wǎng)絡(luò),其學(xué)習(xí)機(jī)制的核心在于通過反向傳播算法
    的頭像 發(fā)表于 07-10 15:49 ?950次閱讀

    PyTorch神經(jīng)網(wǎng)絡(luò)模型構(gòu)建過程

    PyTorch,作為一個(gè)廣泛使用的開源深度學(xué)習(xí)庫(kù),提供了豐富的工具和模塊,幫助開發(fā)者構(gòu)建、訓(xùn)練和部署神經(jīng)網(wǎng)絡(luò)模型。在神經(jīng)網(wǎng)絡(luò)模型中,輸出層是尤為關(guān)鍵的部分,它負(fù)責(zé)將模型的預(yù)測(cè)結(jié)果以合適
    的頭像 發(fā)表于 07-10 14:57 ?756次閱讀

    深度神經(jīng)網(wǎng)絡(luò)與基本神經(jīng)網(wǎng)絡(luò)的區(qū)別

    在探討深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Networks, DNNs)與基本神經(jīng)網(wǎng)絡(luò)(通常指?jìng)鹘y(tǒng)神經(jīng)網(wǎng)絡(luò)或前向神經(jīng)網(wǎng)絡(luò))的區(qū)別時(shí),我們需要從多個(gè)維度進(jìn)行深入分析。這些維度包括
    的頭像 發(fā)表于 07-04 13:20 ?1512次閱讀

    神經(jīng)網(wǎng)絡(luò)的基本原理及Python編程實(shí)現(xiàn)

    神經(jīng)網(wǎng)絡(luò)作為深度學(xué)習(xí)算法的基本構(gòu)建模塊,模擬了人腦的行為,通過互相連接的節(jié)點(diǎn)(也稱為“神經(jīng)元”)實(shí)現(xiàn)對(duì)輸入數(shù)據(jù)的處理、模式識(shí)別和結(jié)果預(yù)測(cè)等功能。本文將深入探討
    的頭像 發(fā)表于 07-03 16:11 ?1198次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)和bp神經(jīng)網(wǎng)絡(luò)的區(qū)別

    化能力。隨著深度學(xué)習(xí)技術(shù)的不斷發(fā)展,神經(jīng)網(wǎng)絡(luò)已經(jīng)成為人工智能領(lǐng)域的重要技術(shù)之一。卷積神經(jīng)網(wǎng)絡(luò)和BP神經(jīng)
    的頭像 發(fā)表于 07-02 14:24 ?5651次閱讀

    使用PyTorch構(gòu)建神經(jīng)網(wǎng)絡(luò)

    PyTorch是一個(gè)流行的深度學(xué)習(xí)框架,它以其簡(jiǎn)潔的API和強(qiáng)大的靈活性在學(xué)術(shù)界和工業(yè)界得到了廣泛應(yīng)用。在本文中,我們將深入探討如何使用PyTorch構(gòu)建神經(jīng)網(wǎng)絡(luò),包括從基礎(chǔ)概念到高級(jí)特性的全面解析。本文旨在為讀者提供一個(gè)完整的
    的頭像 發(fā)表于 07-02 11:31 ?937次閱讀

    基于神經(jīng)網(wǎng)絡(luò)算法的模型構(gòu)建方法

    神經(jīng)網(wǎng)絡(luò)是一種強(qiáng)大的機(jī)器學(xué)習(xí)算法,廣泛應(yīng)用于各種領(lǐng)域,如圖像識(shí)別、自然語言處理、語音識(shí)別等。本文詳細(xì)介紹了基于神經(jīng)網(wǎng)絡(luò)算法的模型構(gòu)建方法,包括數(shù)據(jù)預(yù)處理、
    的頭像 發(fā)表于 07-02 11:21 ?859次閱讀

    構(gòu)建神經(jīng)網(wǎng)絡(luò)模型方法有幾種

    構(gòu)建神經(jīng)網(wǎng)絡(luò)模型是深度學(xué)習(xí)領(lǐng)域的核心任務(wù)之一。本文將詳細(xì)介紹構(gòu)建神經(jīng)網(wǎng)絡(luò)模型的幾種方法,包括前饗神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-02 10:15 ?665次閱讀

    如何使用Python進(jìn)行神經(jīng)網(wǎng)絡(luò)編程

    。 為什么使用Python? Python是一種廣泛使用的高級(jí)編程語言,以其易讀性和易用性而聞名。Python擁有強(qiáng)大的庫(kù),如TensorFlow、Keras和PyTorch,這些庫(kù)提供了構(gòu)建
    的頭像 發(fā)表于 07-02 09:58 ?627次閱讀