一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

神經(jīng)網(wǎng)絡(luò)面臨的問(wèn)題和挑戰(zhàn)

wFVr_Hardware_1 ? 來(lái)源:硬件十萬(wàn)個(gè)為什么 ? 作者:硬件十萬(wàn)個(gè)為什么 ? 2022-11-01 11:54 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

1、多層神經(jīng)網(wǎng)絡(luò)復(fù)雜化,提升效率成為新挑戰(zhàn)

神經(jīng)網(wǎng)絡(luò)從感知機(jī)發(fā)展到多層前饋神經(jīng)網(wǎng)絡(luò),網(wǎng)絡(luò)變得越來(lái)越復(fù)雜。如上一篇 機(jī)器學(xué)習(xí)中的函數(shù)(2)- 多層前饋網(wǎng)絡(luò)巧解“異或”問(wèn)題,損失函數(shù)上場(chǎng)優(yōu)化網(wǎng)絡(luò)性能 討論針對(duì)前饋神經(jīng)網(wǎng)絡(luò)我們的目標(biāo)是要讓損失函數(shù)達(dá)到最小值,這樣實(shí)際輸出和預(yù)期輸出的差值最小,利用最小化損失函數(shù)提升分類(lèi)的精度。顯然,采用“窮舉”找優(yōu)參數(shù)的方法不是聰明的選擇,費(fèi)時(shí)費(fèi)力。我們現(xiàn)在面臨的問(wèn)題和挑戰(zhàn)變成,如何找到一個(gè)高效的方法從眾多網(wǎng)絡(luò)參數(shù)(神經(jīng)元之間的連接權(quán)值和偏置)中選擇最佳的參數(shù)?這就是我們即將一起學(xué)習(xí)討論的話題。

在研究復(fù)雜問(wèn)題之前,我們先要弄清楚幾個(gè)基礎(chǔ)概念,包括“凸函數(shù)”,“梯度”,“梯度下降”。

2、基礎(chǔ)概念:凸函數(shù)和凸曲面、梯度和梯度下降

討論這些概念前必須向偉大的牛頓致敬,當(dāng)科學(xué)發(fā)展到伽利略和開(kāi)普勒那個(gè)年代,人們就在物理學(xué)和天文學(xué)中遇到很多求一個(gè)函數(shù)的最大值或最小值,即最優(yōu)化問(wèn)題,比如計(jì)算行星運(yùn)動(dòng)的近日點(diǎn)和遠(yuǎn)日點(diǎn)距離等。如何系統(tǒng)地解決最優(yōu)化問(wèn)題?牛頓創(chuàng)造性的給出了答案,他的偉大之處在于,他不像前人那樣,將最優(yōu)化問(wèn)題看成是若干數(shù)量比較大小的問(wèn)題,而看成是研究函數(shù)動(dòng)態(tài)變化趨勢(shì)的問(wèn)題 。如下圖,牛頓對(duì)比拋物線和它的導(dǎo)數(shù)(虛的直線),發(fā)現(xiàn)曲線達(dá)到最高點(diǎn)的位置,就是切線變成水平的位置,或者說(shuō)導(dǎo)數(shù)變?yōu)?的位置呢。他把比較數(shù)大小的問(wèn)題,變成了尋找函數(shù)變化拐點(diǎn)的問(wèn)題,同時(shí)發(fā)明導(dǎo)數(shù)這種工具將這兩個(gè)問(wèn)題等同起來(lái),利用導(dǎo)數(shù)這個(gè)工具求最大值問(wèn)題就變成了解方程的問(wèn)題,你看微積分這種強(qiáng)大的數(shù)學(xué)工具在神經(jīng)網(wǎng)絡(luò)中多重要啊。

f9cf45c0-5915-11ed-a3b6-dac502259ad0.png

(1)凸函數(shù)和凸曲面

凸函數(shù)的直觀認(rèn)識(shí):下圖中上述[圖a]是凸函數(shù)圖像,[圖b]是非凸函數(shù)圖像,“任意兩點(diǎn)連接而成的線段與函數(shù)沒(méi)有交點(diǎn)”即為凸函數(shù)。

f9fd8d5e-5915-11ed-a3b6-dac502259ad0.png

從凸曲面與非凸曲面理解最小值和局部最小值:凸函數(shù)的局部極小值就是全局最小值,如下圖中【圖a】凸曲面中無(wú)論彈珠起始位置在何處,彈珠最終都會(huì)落在曲面的最低點(diǎn),而這個(gè)極小值恰好是全局最小值。而非凸函數(shù)求導(dǎo)獲得的極小值不能保證是全局最小值,如【圖b】非凸曲面中彈珠仍然會(huì)落在曲面的某個(gè)低點(diǎn),但有可能不是全局的最低點(diǎn)。

fa34bc34-5915-11ed-a3b6-dac502259ad0.png

(2)梯度和梯度下降法

梯度(gradient)的本質(zhì)是一個(gè)向量(有大小和方向兩個(gè)要素),表示某一函數(shù)在該點(diǎn)處的方向?qū)?shù)沿著該方向取得最大值,即函數(shù)在該點(diǎn)處沿著此梯度的方向變化最快,變化率最大。為求得這個(gè)梯度值會(huì)用到“偏導(dǎo)”的概念,“偏導(dǎo)”的英文是“partial derivatives”,若譯成“局部導(dǎo)數(shù)”更易理解,對(duì)于多維變量函數(shù)而言,當(dāng)求某個(gè)變量的導(dǎo)數(shù)時(shí),就是把其他變量視為常量,然后對(duì)整個(gè)函數(shù)求其導(dǎo)數(shù),由于這里只求一個(gè)變量,即為“局部”。接著把這個(gè)對(duì)“一個(gè)變量”求導(dǎo)的過(guò)程對(duì)余下的其他變量都求一遍導(dǎo)數(shù),再放到向量場(chǎng)中,就得到了這個(gè)函數(shù)的梯度。

梯度下降法(Gradient descent)是最常見(jiàn)的一種最優(yōu)化問(wèn)題求解方法。打個(gè)比方,假設(shè)一個(gè)高度近視的人在山的某個(gè)位置上(定義為起始點(diǎn)),他計(jì)劃從從山上走下來(lái),也就是走到山的最低點(diǎn)。這個(gè)時(shí)候,他可以以起始點(diǎn)為基準(zhǔn),尋找這個(gè)位置點(diǎn)附近最陡峭的地方,然后朝著山的高度下降的方向走,如此循環(huán)迭代,最后就可以到達(dá)山谷位置。梯度下降過(guò)程示意如下圖所示,當(dāng)我們沿著負(fù)梯度方向進(jìn)行迭代的時(shí)候“每次走多大的距離”是需要算法工程師去調(diào)試的,即算法工程師就是要調(diào)試合適的“學(xué)習(xí)率”,從而找到“最佳”參數(shù)。如果碰到極大值問(wèn)題,則可以將目標(biāo)函數(shù)加上負(fù)號(hào),從而將其轉(zhuǎn)換成極小值問(wèn)題來(lái)求解。

fa5b75cc-5915-11ed-a3b6-dac502259ad0.png

3、BP算法提升效率,讓人工智能再次進(jìn)

如本文開(kāi)頭提到的,上世紀(jì)70年代多層神經(jīng)網(wǎng)絡(luò)出現(xiàn)后,面臨重大的挑戰(zhàn)是增加神經(jīng)網(wǎng)絡(luò)的層數(shù)雖然可為其提供更大的靈活性,讓網(wǎng)絡(luò)能解決更多的問(wèn)題,但隨之而來(lái)的數(shù)量龐大的網(wǎng)絡(luò)參數(shù)的訓(xùn)練,這是制約多層神經(jīng)網(wǎng)絡(luò)發(fā)展的一個(gè)重要瓶頸。這時(shí)誤差逆?zhèn)鞑ィ╡rror BackPropagation, 簡(jiǎn)稱(chēng)BP)算法出現(xiàn)了?,F(xiàn)在提及BP算法時(shí),常常把保羅·沃伯斯(PaulWerbos)稱(chēng)作BP算法的提出者,杰弗里?辛頓(Geoffrey Hinton)稱(chēng)作BP算法的推動(dòng)者。

1974年,沃伯斯(圖a)在哈佛大學(xué)取得博士學(xué)位,在他的博士論文里首次提出了通過(guò)誤差的反向傳播來(lái)訓(xùn)練人工神經(jīng)網(wǎng)絡(luò),沃伯斯的研究工作,為多層神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)、訓(xùn)練與實(shí)現(xiàn),提供了一種切實(shí)可行的解決途徑。

1986年,辛頓教授(圖b)和他的團(tuán)隊(duì)優(yōu)化了BP算法,吻醒了沉睡多年的“人工智能”公主,讓人工智能研究再次進(jìn)入繁榮期。

BP算法其實(shí)并不僅僅是一個(gè)反向算法,而是一個(gè)雙向算法,它其實(shí)是分兩步走①正向傳播信號(hào),輸出分類(lèi)信息;②反向傳播誤差,調(diào)整網(wǎng)絡(luò)權(quán)值 。

BP 算法基于梯度下降(gradient descent)策略,以目標(biāo)的負(fù)梯度方向?qū)?shù)進(jìn)行調(diào)整,采用“鏈?zhǔn)椒▌t”(鏈?zhǔn)椒▌t用于求解復(fù)合函數(shù)的導(dǎo)數(shù),復(fù)合函數(shù)導(dǎo)數(shù)是構(gòu)成復(fù)合的函數(shù)在相應(yīng)點(diǎn)的乘積,就像鎖鏈一環(huán)扣一環(huán),所以稱(chēng)為鏈?zhǔn)椒▌t)。

BP算法的工作流程拆解開(kāi)如下,對(duì)于每個(gè)訓(xùn)練樣例BP算法執(zhí)行的順序是

先將輸入示例提供給輸入層神經(jīng)元,然后逐層將信號(hào)前傳,直到產(chǎn)生輸出層的結(jié)果。

然后計(jì)算輸出層的誤差,再將誤差逆向傳播至隱層神經(jīng)元。

最后根據(jù)隱層神經(jīng)元的誤差來(lái)對(duì)連接權(quán)和閾值進(jìn)行調(diào)整。

該迭代過(guò)程循環(huán)進(jìn)行,直到達(dá)到某些停止條件為止,例如訓(xùn)練誤差已達(dá)到一個(gè)很小的值。實(shí)際應(yīng)用中BP算法把網(wǎng)絡(luò)權(quán)值糾錯(cuò)的運(yùn)算量,從原來(lái)的與神經(jīng)元數(shù)目的平方成正比,下降到只和神經(jīng)元數(shù)目本身成正比,效率和可行性大大提升,而這個(gè)得益于這個(gè)反向模式微分方法節(jié)省的計(jì)算冗余。

4、BP算法的缺陷

BP算法在很多場(chǎng)合都很適用,集“BP算法”之大成者當(dāng)屬Yann LeCun(楊立昆),紐約大學(xué)教授2018年還拿過(guò)圖靈獎(jiǎng),擔(dān)任過(guò)Facebook首席人工智能科學(xué)家。1989年,LeCun就用BP算法在手寫(xiě)郵政編碼識(shí)別上有著非常成功的應(yīng)用,訓(xùn)練好的系統(tǒng),手寫(xiě)數(shù)字錯(cuò)誤率只有5%。LeCun借此還申請(qǐng)了專(zhuān)利,開(kāi)了公司,發(fā)了筆小財(cái)。但如前所述,BP算法的缺點(diǎn)也很明顯,在神經(jīng)網(wǎng)絡(luò)的層數(shù)增多時(shí),很容易陷入局部最優(yōu)解,亦容易過(guò)擬合。20世紀(jì)90年代,VladimirVapnik(萬(wàn)普尼克)提出了著名的支持向量機(jī)(Support Vector Machine,SVM),雖然SVM是一個(gè)特殊的兩層神經(jīng)網(wǎng)絡(luò),但因該算法性能卓越,具有可解釋性,且沒(méi)有局部最優(yōu)的問(wèn)題,在圖像和語(yǔ)音識(shí)別等領(lǐng)域獲得了廣泛而成功的應(yīng)用。在手寫(xiě)郵政編碼的識(shí)別問(wèn)題上,LeCun利用BP算法把錯(cuò)誤率降到5%左右,而SVM在1998年就把錯(cuò)誤率降低至0.8%,這遠(yuǎn)超越同期的傳統(tǒng)神經(jīng)網(wǎng)絡(luò)算法。這使得很多神經(jīng)網(wǎng)絡(luò)的研究者轉(zhuǎn)向SVM的研究,從而導(dǎo)致多層前饋神經(jīng)網(wǎng)絡(luò)的研究逐漸受到冷落,在某種程度上萬(wàn)普尼克又把神經(jīng)網(wǎng)絡(luò)研究送到了一個(gè)新的低潮期。

神經(jīng)網(wǎng)絡(luò)又是如何度過(guò)這個(gè)低谷期,快速進(jìn)入到下一個(gè)繁榮時(shí)代的呢?

審核編輯:彭靜
聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4814

    瀏覽量

    103548
  • 人工智能
    +關(guān)注

    關(guān)注

    1806

    文章

    49004

    瀏覽量

    249265
  • 函數(shù)
    +關(guān)注

    關(guān)注

    3

    文章

    4379

    瀏覽量

    64825

原文標(biāo)題:機(jī)器學(xué)習(xí)中的函數(shù)(3) - "梯度下降"走捷徑,"BP算法"提效率

文章出處:【微信號(hào):Hardware_10W,微信公眾號(hào):硬件十萬(wàn)個(gè)為什么】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    詳解深度學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用

    在如今的網(wǎng)絡(luò)時(shí)代,錯(cuò)綜復(fù)雜的大數(shù)據(jù)和網(wǎng)絡(luò)環(huán)境,讓傳統(tǒng)信息處理理論、人工智能與人工神經(jīng)網(wǎng)絡(luò)面臨巨大的挑戰(zhàn)。近些年,深度學(xué)習(xí)逐漸走進(jìn)人們的視線
    的頭像 發(fā)表于 01-11 10:51 ?2809次閱讀
    詳解深度學(xué)習(xí)、<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>與卷積<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的應(yīng)用

    神經(jīng)網(wǎng)絡(luò)教程(李亞非)

      第1章 概述  1.1 人工神經(jīng)網(wǎng)絡(luò)研究與發(fā)展  1.2 生物神經(jīng)元  1.3 人工神經(jīng)網(wǎng)絡(luò)的構(gòu)成  第2章人工神經(jīng)網(wǎng)絡(luò)基本模型  2.1 MP模型  2.2 感知器模型  2.3
    發(fā)表于 03-20 11:32

    神經(jīng)網(wǎng)絡(luò)簡(jiǎn)介

    神經(jīng)網(wǎng)絡(luò)簡(jiǎn)介
    發(fā)表于 08-05 21:01

    MATLAB神經(jīng)網(wǎng)絡(luò)

    MATLAB神經(jīng)網(wǎng)絡(luò)
    發(fā)表于 07-08 15:17

    神經(jīng)網(wǎng)絡(luò)基本介紹

    神經(jīng)網(wǎng)絡(luò)基本介紹
    發(fā)表于 01-04 13:41

    全連接神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)有什么區(qū)別

    全連接神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)的區(qū)別
    發(fā)表于 06-06 14:21

    卷積神經(jīng)網(wǎng)絡(luò)如何使用

    卷積神經(jīng)網(wǎng)絡(luò)(CNN)究竟是什么,鑒于神經(jīng)網(wǎng)絡(luò)在工程上經(jīng)歷了曲折的歷史,您為什么還會(huì)在意它呢? 對(duì)于這些非常中肯的問(wèn)題,我們似乎可以給出相對(duì)簡(jiǎn)明的答案。
    發(fā)表于 07-17 07:21

    【案例分享】ART神經(jīng)網(wǎng)絡(luò)與SOM神經(jīng)網(wǎng)絡(luò)

    今天學(xué)習(xí)了兩個(gè)神經(jīng)網(wǎng)絡(luò),分別是自適應(yīng)諧振(ART)神經(jīng)網(wǎng)絡(luò)與自組織映射(SOM)神經(jīng)網(wǎng)絡(luò)。整體感覺(jué)不是很難,只不過(guò)一些最基礎(chǔ)的概念容易理解不清。首先ART神經(jīng)網(wǎng)絡(luò)是競(jìng)爭(zhēng)學(xué)習(xí)的一個(gè)代表,
    發(fā)表于 07-21 04:30

    人工神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)方法有哪些?

    人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Network,ANN)是一種類(lèi)似生物神經(jīng)網(wǎng)絡(luò)的信息處理結(jié)構(gòu),它的提出是為了解決一些非線性,非平穩(wěn),復(fù)雜的實(shí)際問(wèn)題。那有哪些辦法能實(shí)現(xiàn)人工神經(jīng)網(wǎng)絡(luò)呢?
    發(fā)表于 08-01 08:06

    什么是LSTM神經(jīng)網(wǎng)絡(luò)

    簡(jiǎn)單理解LSTM神經(jīng)網(wǎng)絡(luò)
    發(fā)表于 01-28 07:16

    如何構(gòu)建神經(jīng)網(wǎng)絡(luò)?

    原文鏈接:http://tecdat.cn/?p=5725 神經(jīng)網(wǎng)絡(luò)是一種基于現(xiàn)有數(shù)據(jù)創(chuàng)建預(yù)測(cè)的計(jì)算系統(tǒng)。如何構(gòu)建神經(jīng)網(wǎng)絡(luò)神經(jīng)網(wǎng)絡(luò)包括:輸入層:根據(jù)現(xiàn)有數(shù)據(jù)獲取輸入的層隱藏層:使用反向傳播優(yōu)化輸入變量權(quán)重的層,以提高模型的預(yù)測(cè)
    發(fā)表于 07-12 08:02

    基于BP神經(jīng)網(wǎng)絡(luò)的PID控制

    最近在學(xué)習(xí)電機(jī)的智能控制,上周學(xué)習(xí)了基于單神經(jīng)元的PID控制,這周研究基于BP神經(jīng)網(wǎng)絡(luò)的PID控制。神經(jīng)網(wǎng)絡(luò)具有任意非線性表達(dá)能力,可以通過(guò)對(duì)系統(tǒng)性能的學(xué)習(xí)來(lái)實(shí)現(xiàn)具有最佳組合的PID控制。利用BP
    發(fā)表于 09-07 07:43

    輕量化神經(jīng)網(wǎng)絡(luò)的相關(guān)資料下載

    視覺(jué)任務(wù)中,并取得了巨大成功。然而,由于存儲(chǔ)空間和功耗的限制,神經(jīng)網(wǎng)絡(luò)模型在嵌入式設(shè)備上的存儲(chǔ)與計(jì)算仍然是一個(gè)巨大的挑戰(zhàn)。前面幾篇介紹了如何在嵌入式AI芯片上部署神經(jīng)網(wǎng)絡(luò):【嵌入式AI開(kāi)發(fā)】篇五|實(shí)戰(zhàn)篇一:STM32cubeID
    發(fā)表于 12-14 07:35

    神經(jīng)網(wǎng)絡(luò)移植到STM32的方法

    神經(jīng)網(wǎng)絡(luò)移植到STM32最近在做的一個(gè)項(xiàng)目需要用到網(wǎng)絡(luò)進(jìn)行擬合,并且將擬合得到的結(jié)果用作控制,就在想能不能直接在單片機(jī)上做神經(jīng)網(wǎng)絡(luò)計(jì)算,這樣就可以實(shí)時(shí)計(jì)算,不依賴(lài)于上位機(jī)。所以要解決的主要是兩個(gè)
    發(fā)表于 01-11 06:20

    不同神經(jīng)網(wǎng)絡(luò)量子態(tài)的最新進(jìn)展以及面臨挑戰(zhàn)

    量子態(tài),其物理性質(zhì)與典型應(yīng)用場(chǎng)景,最新進(jìn)展,以及面臨挑戰(zhàn)。 01 ? ?引 言? ?? ? ? 人工智能主要有三條發(fā)展路線:符號(hào)主義、連接主義與行為主義[1]。人工神經(jīng)網(wǎng)絡(luò)是連接主義的基石,也是最近幾年深度學(xué)習(xí)取得突破進(jìn)展的關(guān)
    的頭像 發(fā)表于 03-02 09:56 ?3456次閱讀