一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

神經(jīng)網(wǎng)絡(luò)實現(xiàn)分類與預(yù)測的基本原理

倩倩 ? 來源:Python那些事 ? 2020-04-17 10:50 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

文章目標(biāo):神經(jīng)網(wǎng)絡(luò)特別是深層神經(jīng)網(wǎng)絡(luò)是黑盒的,通過閱讀本文可以讓大家了解神經(jīng)網(wǎng)絡(luò)的基本實現(xiàn)方法、基本數(shù)學(xué)原理、實現(xiàn)流程等,同時建議初學(xué)者從基礎(chǔ)學(xué)起,查詢更多的資料豐富認(rèn)知,有不明白的地方可以關(guān)注作者或留言。

人工神經(jīng)網(wǎng)絡(luò)起源于上世紀(jì)40~50年代,它是在基于人腦的基本單元-神經(jīng)元的建模與聯(lián)結(jié),模擬人腦神經(jīng)系統(tǒng),形成一種具有學(xué)習(xí)、聯(lián)想、記憶和模式識別等智能信息處理的人工系統(tǒng),稱為人工神經(jīng)網(wǎng)絡(luò)。1969年出版的轟動一時的《Perceptrons》一書指出簡單的線性感知器的功能是有限的,它無非解決線性不可分的而分類問題,如簡單的線性感知器不能實現(xiàn)“異或”的邏輯關(guān)系,加上神經(jīng)網(wǎng)絡(luò)就和黑夾子一樣,很多東西不透明,模型的解釋性不強,參數(shù)過多,容易出錯,容易過擬合,無法保證全局最優(yōu)等問題,同時70年代集成電路和微電子技術(shù)的迅猛發(fā)展,使得傳統(tǒng)的Von Neumenn計算機進(jìn)入全盛時期,基于邏輯符號處理方法的人工智能得到了迅速發(fā)展并取得了顯著的成果。

1982年,美國科學(xué)院發(fā)表了著名的Hopfield網(wǎng)絡(luò)模型的理論,不僅對ANN信息存儲和提取功能進(jìn)行了非線性數(shù)學(xué)概括,提出了動力方程和學(xué)習(xí)方程,使得ANN的構(gòu)造與學(xué)習(xí)有了理論指導(dǎo)。這一研究激發(fā)了ANN的研究熱情。

為了描述神經(jīng)網(wǎng)絡(luò),先從最簡單的神經(jīng)網(wǎng)絡(luò)講起,這個神經(jīng)網(wǎng)絡(luò)僅由一個“神經(jīng)元”構(gòu)成,“神經(jīng)元”的圖示如下:

那么想得到預(yù)測或者分類的結(jié)果,就需要了解激活函數(shù),激活函數(shù)的作用:能使得神經(jīng)網(wǎng)絡(luò)的每層輸出結(jié)果變得非線性化,進(jìn)行數(shù)值轉(zhuǎn)換,具有如下性質(zhì):

可微性:計算梯度時必須要有此性質(zhì);

非線性:保證數(shù)據(jù)非線性可分;

單調(diào)性:保證凸函數(shù);

輸出值與輸入值相差不會很大:保證神經(jīng)網(wǎng)絡(luò)訓(xùn)練和調(diào)參高效;

常用的激活函數(shù)有很多,本文列出3個:Sigmoid、TANH、ReLU,數(shù)據(jù)經(jīng)過激活函數(shù)進(jìn)行轉(zhuǎn)換:

經(jīng)過激活函數(shù)轉(zhuǎn)換后得到預(yù)測標(biāo)簽y,對于有監(jiān)督的分類問題來說,比如二分類label是0、1,那我們?nèi)绾斡嬎泐A(yù)測標(biāo)簽y與實際值的差距呢,就是我們要講的幾個概念了。

損失函數(shù):計算的是一個樣本的誤差;

代價函數(shù):是整個訓(xùn)練集上所有樣本誤差的平均;

目標(biāo)函數(shù):代價函數(shù) + 正則化項;

通過目標(biāo)函數(shù)我們就可以衡量訓(xùn)練集的損失,這種損失我們?nèi)绾螠p少到最小呢?就是神經(jīng)網(wǎng)絡(luò)的優(yōu)化器,常用優(yōu)化器如下:

SGD(Stochastic gradient descent)

Adagrad

RMSprop

Adam

作用:更新和計算影響模型訓(xùn)練和模型輸出的網(wǎng)絡(luò)參數(shù),使其逼近或達(dá)到最優(yōu)值,從而最小化(或最大化)損失函數(shù)E(x)

通過優(yōu)化器的多次優(yōu)化,我們就可以對模型進(jìn)行訓(xùn)練和模型優(yōu)化了,本文是個簡單的Demo,后續(xù)會詳細(xì)介紹,有問題可以留言及關(guān)注;

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    無刷電機小波神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)子位置檢測方法的研究

    摘要:論文通過對無刷電機數(shù)學(xué)模型的推導(dǎo),得出轉(zhuǎn)角:與三相相電壓之間存在映射關(guān)系,因此構(gòu)建了一個以三相相電壓為輸人,轉(zhuǎn)角為輸出的小波神經(jīng)網(wǎng)絡(luò)實現(xiàn)轉(zhuǎn)角預(yù)測,并采用改進(jìn)遺傳算法來訓(xùn)練網(wǎng)絡(luò)結(jié)
    發(fā)表于 06-25 13:06

    BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的比較

    BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)在多個方面存在顯著差異,以下是對兩者的比較: 一、結(jié)構(gòu)特點 BP神經(jīng)網(wǎng)絡(luò) : BP神經(jīng)網(wǎng)絡(luò)是一種多層的前饋神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 02-12 15:53 ?661次閱讀

    BP神經(jīng)網(wǎng)絡(luò)的優(yōu)缺點分析

    自學(xué)習(xí)能力 : BP神經(jīng)網(wǎng)絡(luò)能夠通過訓(xùn)練數(shù)據(jù)自動調(diào)整網(wǎng)絡(luò)參數(shù),實現(xiàn)對輸入數(shù)據(jù)的分類、回歸等任務(wù),無需人工進(jìn)行復(fù)雜的特征工程。 泛化能力強 : BP
    的頭像 發(fā)表于 02-12 15:36 ?914次閱讀

    什么是BP神經(jīng)網(wǎng)絡(luò)的反向傳播算法

    神經(jīng)網(wǎng)絡(luò)(即反向傳播神經(jīng)網(wǎng)絡(luò))的核心,它建立在梯度下降法的基礎(chǔ)上,是一種適合于多層神經(jīng)元網(wǎng)絡(luò)的學(xué)習(xí)算法。該算法通過計算每層網(wǎng)絡(luò)的誤差,并將這些誤差反向傳播到前一層,從而調(diào)整權(quán)重,使得
    的頭像 發(fā)表于 02-12 15:18 ?765次閱讀

    BP神經(jīng)網(wǎng)絡(luò)基本原理

    BP神經(jīng)網(wǎng)絡(luò)(Back Propagation Neural Network)的基本原理涉及前向傳播和反向傳播兩個核心過程。以下是關(guān)于BP神經(jīng)網(wǎng)絡(luò)基本原理的介紹: 一、
    的頭像 發(fā)表于 02-12 15:13 ?847次閱讀

    BP神經(jīng)網(wǎng)絡(luò)在圖像識別中的應(yīng)用

    BP神經(jīng)網(wǎng)絡(luò)在圖像識別中發(fā)揮著重要作用,其多層結(jié)構(gòu)使得網(wǎng)絡(luò)能夠?qū)W習(xí)到復(fù)雜的特征表達(dá),適用于處理非線性問題。以下是對BP神經(jīng)網(wǎng)絡(luò)在圖像識別中應(yīng)用的分析: 一、BP神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 02-12 15:12 ?672次閱讀

    人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法

    在上一篇文章中,我們介紹了傳統(tǒng)機器學(xué)習(xí)的基礎(chǔ)知識和多種算法。在本文中,我們會介紹人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法,供各位老師選擇。 01 人工神經(jīng)網(wǎng)絡(luò) ? 人工神經(jīng)網(wǎng)絡(luò)模型之所
    的頭像 發(fā)表于 01-09 10:24 ?1183次閱讀
    人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的原理和多種<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>架構(gòu)方法

    卷積神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的比較

    在深度學(xué)習(xí)領(lǐng)域,神經(jīng)網(wǎng)絡(luò)模型被廣泛應(yīng)用于各種任務(wù),如圖像識別、自然語言處理和游戲智能等。其中,卷積神經(jīng)網(wǎng)絡(luò)(CNNs)和傳統(tǒng)神經(jīng)網(wǎng)絡(luò)是兩種常見的模型。 1. 結(jié)構(gòu)差異 1.1 傳統(tǒng)神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 11-15 14:53 ?1865次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)基本原理與算法

    ),是深度學(xué)習(xí)的代表算法之一。 一、基本原理 卷積運算 卷積運算是卷積神經(jīng)網(wǎng)絡(luò)的核心,用于提取圖像中的局部特征。 定義卷積核:卷積核是一個小的矩陣,用于在輸入圖像上滑動,提取局部特征。 滑動窗口:將卷積核在輸入圖像上滑動,每次滑動一個像素點。 計算卷積:將卷積核與輸入圖像
    的頭像 發(fā)表于 11-15 14:47 ?1773次閱讀

    RNN的基本原理實現(xiàn)

    RNN,即循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network),是一種特殊類型的人工神經(jīng)網(wǎng)絡(luò),專門設(shè)計用于處理序列數(shù)據(jù),如文本、語音、視頻等。以下是對RNN基本原理實現(xiàn)
    的頭像 發(fā)表于 11-15 09:49 ?1433次閱讀

    深度學(xué)習(xí)框架中的LSTM神經(jīng)網(wǎng)絡(luò)實現(xiàn)

    處理、語音識別和時間序列預(yù)測等領(lǐng)域,LSTM已經(jīng)成為一種流行的選擇。 LSTM的基本原理 LSTM網(wǎng)絡(luò)的核心是三個門控機制:輸入門(Input Gate)、遺忘門(Forget Gate)和輸出門(Output Gate)。這些
    的頭像 發(fā)表于 11-13 10:16 ?1058次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)在圖像處理中的應(yīng)用

    長短期記憶(LSTM)神經(jīng)網(wǎng)絡(luò)是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),它能夠?qū)W習(xí)長期依賴關(guān)系。雖然LSTM最初是為處理序列數(shù)據(jù)設(shè)計的,但近年來,它在圖像處理領(lǐng)域也展現(xiàn)出了巨大的潛力。 LSTM基本原理
    的頭像 發(fā)表于 11-13 10:12 ?1614次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)在時間序列預(yù)測中的應(yīng)用

    時間序列預(yù)測是數(shù)據(jù)分析中的一個重要領(lǐng)域,它涉及到基于歷史數(shù)據(jù)預(yù)測未來值。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,長短期記憶(LSTM)神經(jīng)網(wǎng)絡(luò)因其在處理序列數(shù)據(jù)方面的優(yōu)勢而受到廣泛關(guān)注。 LSTM神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 11-13 09:54 ?2037次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)基本原理 如何實現(xiàn)LSTM神經(jīng)網(wǎng)絡(luò)

    廣泛應(yīng)用。 LSTM神經(jīng)網(wǎng)絡(luò)基本原理 1. 循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)的局限性 傳統(tǒng)的RNN在處理長序列數(shù)據(jù)時會遇到梯度消失或梯度爆炸的問題,導(dǎo)致網(wǎng)絡(luò)難以學(xué)習(xí)到長期依賴信息。這是因為在反
    的頭像 發(fā)表于 11-13 09:53 ?1578次閱讀

    如何構(gòu)建多層神經(jīng)網(wǎng)絡(luò)

    構(gòu)建多層神經(jīng)網(wǎng)絡(luò)(MLP, Multi-Layer Perceptron)模型是一個在機器學(xué)習(xí)和深度學(xué)習(xí)領(lǐng)域廣泛使用的技術(shù),尤其在處理分類和回歸問題時。在本文中,我們將深入探討如何從頭開始構(gòu)建一個多層神經(jīng)網(wǎng)絡(luò)模型,包括模型設(shè)計、
    的頭像 發(fā)表于 07-19 17:19 ?1557次閱讀