一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

探討神經(jīng)網(wǎng)絡(luò)基本架構(gòu):單元/神經(jīng)元、連接/權(quán)重/參數(shù)、偏置項(xiàng)

454398 ? 來源:機(jī)器之心 ? 作者:機(jī)器之心 ? 2020-10-08 00:12 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

神經(jīng)網(wǎng)絡(luò)(NN)幾乎可以在每個(gè)領(lǐng)域幫助我們用創(chuàng)造性的方式解決問題。本文將介紹神經(jīng)網(wǎng)絡(luò)的相關(guān)知識(shí)。讀后你將對(duì)神經(jīng)網(wǎng)絡(luò)有個(gè)大概了解,它是如何工作的?如何創(chuàng)建神經(jīng)網(wǎng)絡(luò)?

神經(jīng)網(wǎng)絡(luò)的發(fā)展歷史

神經(jīng)網(wǎng)絡(luò)起源于 WarrenMcCulloch 和 Walter Pitts 于 1943 年首次建立的神經(jīng)網(wǎng)絡(luò)模型。他們的模型完全基于數(shù)學(xué)和算法,由于缺乏計(jì)算資源,模型無法測試。

后來,在 1958 年,F(xiàn)rank Rosenblatt 創(chuàng)建了第一個(gè)可以進(jìn)行模式識(shí)別的模型,改變了現(xiàn)狀。即感知器。但是他只提出了 notation 和模型。實(shí)際的神經(jīng)網(wǎng)絡(luò)模型仍然無法測試,此前的相關(guān)研究也較少。

第一批可以測試并具有多個(gè)層的神經(jīng)網(wǎng)絡(luò)于 1965 年由 Alexey Ivakhnenko 和 Lapa 創(chuàng)建。

之后,由于機(jī)器學(xué)習(xí)模型具有很強(qiáng)可行性,神經(jīng)網(wǎng)絡(luò)的研究停滯不前。很多人認(rèn)為這是因?yàn)?Marvin Minsky 和 Seymour Papert 在 1969 年完成的書《感知機(jī)》(Perceptrons)導(dǎo)致的。

然而,這個(gè)停滯期相對(duì)較短。6 年后,即 1975 年,Paul Werbos 提出反向傳播,解決了 XOR 問題,并且使神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)效率更高。

1992 年,最大池化(max-pooling)被提出,這有助于 3D 目標(biāo)識(shí)別,因?yàn)樗邆淦揭撇蛔冃?,?duì)變形具備一定魯棒性。

2009 年至 2012 年間,JürgenSchmidhuber 研究小組創(chuàng)建的循環(huán)神經(jīng)網(wǎng)絡(luò)和深度前饋神經(jīng)網(wǎng)絡(luò)獲得了模式識(shí)別和機(jī)器學(xué)習(xí)領(lǐng)域 8 項(xiàng)國際競賽的冠軍。

2011 年,深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)開始將卷積層與最大池化層合并,然后將其輸出傳遞給幾個(gè)全連接層,再傳遞給輸出層。這些被稱為卷積神經(jīng)網(wǎng)絡(luò)。

在這之后還有更多的研究。

什么是神經(jīng)網(wǎng)絡(luò)?

了解神經(jīng)網(wǎng)絡(luò)的一個(gè)好方法是將它看作復(fù)合函數(shù)。你輸入一些數(shù)據(jù),它會(huì)輸出一些數(shù)據(jù)。

3 個(gè)部分組成了神經(jīng)網(wǎng)絡(luò)的的基本架構(gòu):

  • 單元/神經(jīng)元
  • 連接/權(quán)重/參數(shù)
  • 偏置項(xiàng)

你可以把它們看作建筑物的「磚塊」。根據(jù)你希望建筑物擁有的功能來安排磚塊的位置。水泥是權(quán)重。無論權(quán)重多大,如果沒有足夠的磚塊,建筑物還是會(huì)倒塌。然而,你可以讓建筑以最小的精度運(yùn)行(使用最少的磚塊),然后逐步構(gòu)建架構(gòu)來解決問題。

我將在后面的章節(jié)中更多地討論權(quán)重、偏置項(xiàng)和單元。

單元/神經(jīng)元

作為神經(jīng)網(wǎng)絡(luò)架構(gòu)三個(gè)部分中最不重要的部分,神經(jīng)元是包含權(quán)重和偏置項(xiàng)的函數(shù),等待數(shù)據(jù)傳遞給它們。接收數(shù)據(jù)后,它們執(zhí)行一些計(jì)算,然后使用激活函數(shù)將數(shù)據(jù)限制在一個(gè)范圍內(nèi)(多數(shù)情況下)。

我們將這些單元想象成一個(gè)包含權(quán)重和偏置項(xiàng)的盒子。盒子從兩端打開。一端接收數(shù)據(jù),另一端輸出修改后的數(shù)據(jù)。數(shù)據(jù)首先進(jìn)入盒子中,將權(quán)重與數(shù)據(jù)相乘,再向相乘的數(shù)據(jù)添加偏置項(xiàng)。這是一個(gè)單元,也可以被認(rèn)為是一個(gè)函數(shù)。該函數(shù)與下面這個(gè)直線方程類似:

想象一下有多個(gè)直線方程,超過 2 個(gè)可以促進(jìn)神經(jīng)網(wǎng)絡(luò)中的非線性。從現(xiàn)在開始,你將為同一個(gè)數(shù)據(jù)點(diǎn)(輸入)計(jì)算多個(gè)輸出值。這些輸出值將被發(fā)送到另一個(gè)單元,然后神經(jīng)網(wǎng)絡(luò)會(huì)計(jì)算出最終輸出值。

權(quán)重/參數(shù)/連接

作為神經(jīng)網(wǎng)絡(luò)最重要的部分,這些(和偏置項(xiàng))是用神經(jīng)網(wǎng)絡(luò)解決問題時(shí)必須學(xué)習(xí)的數(shù)值。這就是你現(xiàn)在需要知道的。

偏置項(xiàng)

這些數(shù)字代表神經(jīng)網(wǎng)絡(luò)認(rèn)為其在將權(quán)重與數(shù)據(jù)相乘之后應(yīng)該添加的內(nèi)容。當(dāng)然,它們經(jīng)常出錯(cuò),但神經(jīng)網(wǎng)絡(luò)隨后也學(xué)習(xí)到最佳偏置項(xiàng)。

超參數(shù)

超參數(shù)必須手動(dòng)設(shè)置。如果將神經(jīng)網(wǎng)絡(luò)看作一臺(tái)機(jī)器,那么改變機(jī)器行為的 nob 就是神經(jīng)網(wǎng)絡(luò)的超參數(shù)。

你可以閱讀我的另一篇文章(https://towardsdatascience.com/gas-and-nns-6a41f1e8146d),了解如何優(yōu)化神經(jīng)網(wǎng)絡(luò)超參數(shù)。

激活函數(shù)

也稱為映射函數(shù)(mapping function)。它們?cè)?x 軸上輸入數(shù)據(jù),并在有限的范圍內(nèi)(大部分情況下)輸出一個(gè)值。大多數(shù)情況下,它們被用于將單元的較大輸出轉(zhuǎn)換成較小的值。你選擇的激活函數(shù)可以大幅提高或降低神經(jīng)網(wǎng)絡(luò)的性能。如果你喜歡,你可以為不同的單元選擇不同的激活函數(shù)。

以下是一些常見的激活函數(shù):

  • Sigmoid


Sigmoid 函數(shù)
  • Tanh


tanh 函數(shù)
  • ReLU:修正線性單元


修正線性單元函數(shù)
  • Leaky ReLU


Leaky ReLU 函數(shù)

這是神經(jīng)網(wǎng)絡(luò)在任何問題中都可獲得復(fù)雜度的原因。增加層(具備單元)可增加神經(jīng)網(wǎng)絡(luò)輸出的非線性。

每個(gè)層都包含一定數(shù)量的單元。大多數(shù)情況下單元的數(shù)量完全取決于創(chuàng)建者。但是,對(duì)于一個(gè)簡單的任務(wù)而言,層數(shù)過多會(huì)增加不必要的復(fù)雜性,且在大多數(shù)情況下會(huì)降低其準(zhǔn)確率。反之亦然。

每個(gè)神經(jīng)網(wǎng)絡(luò)有兩層:輸入層和輸出層。二者之間的層稱為隱藏層。下圖所示的神經(jīng)網(wǎng)絡(luò)包含一個(gè)輸入層(8 個(gè)單元)、一個(gè)輸出層(4 個(gè)單元)和 3 個(gè)隱藏層(每層包含 9 個(gè)單元)。

深度神經(jīng)網(wǎng)絡(luò)

具有兩個(gè)或更多隱藏層且每層包含大量單元的神經(jīng)網(wǎng)絡(luò)稱為深度神經(jīng)網(wǎng)絡(luò),它催生了深度學(xué)習(xí)這一新的學(xué)習(xí)領(lǐng)域。上圖所示神經(jīng)網(wǎng)絡(luò)就是這樣一個(gè)例子。

神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)時(shí)發(fā)生了什么?

教神經(jīng)網(wǎng)絡(luò)解決問題的最常見方式是使用梯度下降。梯度下降相關(guān)內(nèi)容,參見:https://hackernoon.com/gradient-descent-aynk-7cbe95a778da

除梯度下降外,另一種常見的訓(xùn)練神經(jīng)網(wǎng)絡(luò)方法是使用反向傳播。使用這種方法,神經(jīng)網(wǎng)絡(luò)輸出層的誤差會(huì)通過微積分中的鏈?zhǔn)揭?guī)則向后傳播。這對(duì)于沒有微積分知識(shí)的初學(xué)者來說可能會(huì)難以理解,但也不要被嚇倒,反向傳播相關(guān)內(nèi)容,推薦閱讀:http://neuralnetworksanddeeplearning.com/chap2.html。

訓(xùn)練神經(jīng)網(wǎng)絡(luò)有許多注意事項(xiàng)。但對(duì)于初學(xué)者來說,沒有必要在一篇文章中了解全部。

實(shí)現(xiàn)細(xì)節(jié)(如何管理項(xiàng)目中的所有因素)

為了解釋如何管理項(xiàng)目中的所有因素,我創(chuàng)建了一個(gè) Jupyter Notebook,包含一個(gè)學(xué)習(xí) XOR 邏輯門的小型神經(jīng)網(wǎng)絡(luò)。Jupyter Notebook 地址:https://github.com/Frixoe/xor-neural-network/blob/master/XOR-Net-Noteboo...。

在查看并理解 Notebook 內(nèi)容后,你應(yīng)該對(duì)如何構(gòu)建基礎(chǔ)神經(jīng)網(wǎng)絡(luò)有一個(gè)大致的了解。

Notebook 創(chuàng)建的神經(jīng)網(wǎng)絡(luò)的訓(xùn)練數(shù)據(jù)以矩陣排列,這是常見的數(shù)據(jù)排列方式。不同項(xiàng)目中的矩陣維度可能會(huì)有所不同。

大量數(shù)據(jù)通常分為兩類:訓(xùn)練數(shù)據(jù)(60%)和測試數(shù)據(jù)(40%)。神經(jīng)網(wǎng)絡(luò)先使用訓(xùn)練數(shù)據(jù),然后在測試數(shù)據(jù)上測試網(wǎng)絡(luò)的準(zhǔn)確率。

關(guān)于神經(jīng)網(wǎng)絡(luò)的更多信息(更多資源鏈接)

如果你仍然無法理解神經(jīng)網(wǎng)絡(luò),那么推薦以下資源:

YouTube:

Siraj Raval (https://www.youtube.com/channel/UCWN3xxRkmTPmbKwht9FuE5A)

3Blue1Brown (https://www.youtube.com/channel/UCYO_jab_esuFRV4b17AJtAw)

The Coding Train (https://www.youtube.com/playlist?list=PLRqwX-V7Uu6aCibgK1PTWWu9by6XFdCfh)

Brandon Rohrer (https://www.youtube.com/channel/UCsBKTrp45lTfHa_p49I2AEQ)

giant_neural_network (https://www.youtube.com/channel/UCrBzGHKmGDcwLFnQGHJ3XYg)

Hugo Larochelle (https://www.youtube.com/channel/UCiDouKcxRmAdc5OeZdiRwAg)

Jabrils (https://www.youtube.com/channel/UCQALLeQPoZdZC4JNUboVEUg)

Luis Serrano (https://www.youtube.com/channel/UCgBncpylJ1kiVaPyP-PZauQ)

Coursera:

Neural Networks for Machine Learning (https://www.coursera.org/learn/neural-networks) by University of Toronto

Deep Learning Specialization (https://www.coursera.org/specializations/deep-learning) by Andrew Ng

Introduction to Deep Learning (https://www.coursera.org/learn/intro-to-deep-learning) by National Research University Higher School of Economics

編輯:hfy


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4814

    瀏覽量

    103631
  • 卷積
    +關(guān)注

    關(guān)注

    0

    文章

    95

    瀏覽量

    18760
  • 神經(jīng)元
    +關(guān)注

    關(guān)注

    1

    文章

    368

    瀏覽量

    18842
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5561

    瀏覽量

    122796
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    無刷直流電機(jī)單神經(jīng)元自適應(yīng)智能控制系統(tǒng)

    常規(guī)PID,大大提高了系統(tǒng)的跟隨性,能滿足BLDCM系統(tǒng)對(duì)實(shí)時(shí)性的要求。 純分享帖,點(diǎn)擊下方附件免費(fèi)獲取完整資料~~~ *附件:無刷直流電機(jī)單神經(jīng)元自適應(yīng)智能控制系統(tǒng).pdf 【免責(zé)聲明】本文系網(wǎng)絡(luò)轉(zhuǎn)載,版權(quán)歸原作者所有。本文所用視頻、圖片、文字如涉及作品版權(quán)問題,請(qǐng)第一
    發(fā)表于 06-26 13:36

    無刷直流電機(jī)單神經(jīng)元PI控制器的設(shè)計(jì)

    摘要:研究了一種基于專家系統(tǒng)的單神經(jīng)元PI控制器,并將其應(yīng)用于無刷直流電機(jī)調(diào)速系統(tǒng)中??刂破鲗?shí)現(xiàn)了PI參數(shù)的在線調(diào)整,在具有PID控制器良好動(dòng)態(tài)性能的同時(shí),減少微分項(xiàng)對(duì)系統(tǒng)穩(wěn)態(tài)運(yùn)行時(shí)的影響,并較好
    發(fā)表于 06-26 13:34

    基于FPGA搭建神經(jīng)網(wǎng)絡(luò)的步驟解析

    本文的目的是在一個(gè)神經(jīng)網(wǎng)絡(luò)已經(jīng)通過python或者M(jìn)ATLAB訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型,將訓(xùn)練好的模型的權(quán)重偏置文件以TXT文件格式導(dǎo)出,然后通過python程序?qū)xt文件轉(zhuǎn)化為coe
    的頭像 發(fā)表于 06-03 15:51 ?414次閱讀
    基于FPGA搭建<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的步驟解析

    BP神經(jīng)網(wǎng)絡(luò)網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)原則

    ,僅作為數(shù)據(jù)輸入的接口。輸入層的神經(jīng)元個(gè)數(shù)通常與輸入數(shù)據(jù)的特征數(shù)量相對(duì)應(yīng)。 隱藏層 :對(duì)輸入信號(hào)進(jìn)行非線性變換,是神經(jīng)網(wǎng)絡(luò)的核心部分,負(fù)責(zé)學(xué)習(xí)輸入與輸出之間的復(fù)雜映射關(guān)系。隱藏層可以有一層或多層,層數(shù)和神經(jīng)元數(shù)量根據(jù)具體問題而定
    的頭像 發(fā)表于 02-12 16:41 ?744次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的比較

    多層。 每一層都由若干個(gè)神經(jīng)元構(gòu)成,神經(jīng)元之間通過權(quán)重連接。信號(hào)在神經(jīng)網(wǎng)絡(luò)中是前向傳播的,而誤差是反向傳播的。 卷積
    的頭像 發(fā)表于 02-12 15:53 ?670次閱讀

    BP神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)步驟詳解

    的層數(shù)、每層神經(jīng)元的數(shù)量以及激活函數(shù)。 初始化權(quán)重偏置 : 隨機(jī)初始化輸入層與隱藏層、隱藏層與隱藏層、隱藏層與輸出層之間的連接權(quán)重,以及各
    的頭像 發(fā)表于 02-12 15:50 ?645次閱讀

    什么是BP神經(jīng)網(wǎng)絡(luò)的反向傳播算法

    神經(jīng)網(wǎng)絡(luò)(即反向傳播神經(jīng)網(wǎng)絡(luò))的核心,它建立在梯度下降法的基礎(chǔ)上,是一種適合于多層神經(jīng)元網(wǎng)絡(luò)的學(xué)習(xí)算法。該算法通過計(jì)算每層網(wǎng)絡(luò)的誤差,并將這些誤差反向傳播到前一層,從而調(diào)整
    的頭像 發(fā)表于 02-12 15:18 ?771次閱讀

    BP神經(jīng)網(wǎng)絡(luò)的基本原理

    輸入層、隱藏層和輸出層組成。其中,輸入層負(fù)責(zé)接收外部輸入數(shù)據(jù),這些數(shù)據(jù)隨后被傳遞到隱藏層。隱藏層是BP神經(jīng)網(wǎng)絡(luò)的核心部分,它可以通過一層或多層神經(jīng)元對(duì)輸入數(shù)據(jù)進(jìn)行加權(quán)求和,并通過非線性激活函數(shù)(如ReLU、sigmoid或tanh)進(jìn)行處理,從而提取出數(shù)據(jù)中的特征。最后,
    的頭像 發(fā)表于 02-12 15:13 ?858次閱讀

    深度學(xué)習(xí)入門:簡單神經(jīng)網(wǎng)絡(luò)的構(gòu)建與實(shí)現(xiàn)

    深度學(xué)習(xí)中,神經(jīng)網(wǎng)絡(luò)是核心模型。今天我們用 Python 和 NumPy 構(gòu)建一個(gè)簡單的神經(jīng)網(wǎng)絡(luò)神經(jīng)網(wǎng)絡(luò)由多個(gè)神經(jīng)元組成,神經(jīng)元之間通過
    的頭像 發(fā)表于 01-23 13:52 ?530次閱讀

    人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法

    所擬合的數(shù)學(xué)模型的形式受到大腦中神經(jīng)元連接和行為的啟發(fā),最初是為了研究大腦功能而設(shè)計(jì)的。然而,數(shù)據(jù)科學(xué)中常用的神經(jīng)網(wǎng)絡(luò)作為大腦模型已經(jīng)過時(shí),現(xiàn)在它們只是能夠在某些應(yīng)用中提供最先進(jìn)性能的機(jī)器學(xué)習(xí)模型。近年來,由于
    的頭像 發(fā)表于 01-09 10:24 ?1196次閱讀
    人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的原理和多種<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b><b class='flag-5'>架構(gòu)</b>方法

    卷積神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的比較

    神經(jīng)網(wǎng)絡(luò),也稱為全連接神經(jīng)網(wǎng)絡(luò)(Fully Connected Neural Networks,F(xiàn)CNs),其特點(diǎn)是每一層的每個(gè)神經(jīng)元都與下一層的所有神經(jīng)元相連。這種結(jié)構(gòu)簡單直觀,但在
    的頭像 發(fā)表于 11-15 14:53 ?1878次閱讀

    RNN模型與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的區(qū)別

    傳統(tǒng)神經(jīng)網(wǎng)絡(luò)(前饋神經(jīng)網(wǎng)絡(luò)) 2.1 結(jié)構(gòu) 傳統(tǒng)神經(jīng)網(wǎng)絡(luò),通常指的是前饋神經(jīng)網(wǎng)絡(luò)(Feedforward Neural Networks, FNN),是一種最簡單的人工
    的頭像 發(fā)表于 11-15 09:42 ?1129次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)與工作機(jī)制

    的結(jié)構(gòu)與工作機(jī)制的介紹: 一、LSTM神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu) LSTM神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)主要包括以下幾個(gè)部分: 記憶單元(Memory Cell) : 記憶單元是LSTM
    的頭像 發(fā)表于 11-13 10:05 ?1632次閱讀

    關(guān)于卷積神經(jīng)網(wǎng)絡(luò),這些概念你厘清了么~

    神經(jīng)元都是輸入的線性變換——將輸入乘以數(shù)字(權(quán)重w)并加上一個(gè)常數(shù)(偏置b),然后通過一個(gè)固定的非線性函數(shù)產(chǎn)生輸出,該函數(shù)也被稱為激活函數(shù) ^1^ 。作為網(wǎng)絡(luò)中唯一的非線性部分,激活函
    發(fā)表于 10-24 13:56

    Python自動(dòng)訓(xùn)練人工神經(jīng)網(wǎng)絡(luò)

    人工神經(jīng)網(wǎng)絡(luò)(ANN)是機(jī)器學(xué)習(xí)中一種重要的模型,它模仿了人腦神經(jīng)元的工作方式,通過多層節(jié)點(diǎn)(神經(jīng)元)之間的連接權(quán)重調(diào)整來學(xué)習(xí)和解決問題。
    的頭像 發(fā)表于 07-19 11:54 ?703次閱讀