一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

圖文詳解:神經(jīng)網(wǎng)絡(luò)的激活函數(shù)

如意 ? 來源: 人工智能遇見磐創(chuàng) ? 作者: 人工智能遇見磐創(chuàng) ? 2020-07-05 11:21 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

什么是神經(jīng)網(wǎng)絡(luò)激活函數(shù)?

激活函數(shù)有助于決定我們是否需要激活神經(jīng)元。如果我們需要發(fā)射一個神經(jīng)元那么信號的強度是多少。

激活函數(shù)是神經(jīng)元通過神經(jīng)網(wǎng)絡(luò)處理和傳遞信息的機制

為什么在神經(jīng)網(wǎng)絡(luò)中需要一個激活函數(shù)?

圖文詳解:神經(jīng)網(wǎng)絡(luò)的激活函數(shù)

在神經(jīng)網(wǎng)絡(luò)中,z是輸入節(jié)點與節(jié)點權(quán)值加上偏差的乘積。z的方程與線性方程非常相似,取值范圍從+∞到-∞

圖文詳解:神經(jīng)網(wǎng)絡(luò)的激活函數(shù)

如果神經(jīng)元的值可以從負無窮到正無窮變化,那么我們就無法決定是否需要激活神經(jīng)元。這就是激活函數(shù)幫助我們解決問題的地方。

如果z是線性的,那么我們就不能解決復(fù)雜的問題。這是我們使用激活函數(shù)的另一個原因。

有以下不同類型的激活函數(shù)

閥值函數(shù)或階梯激活函數(shù)

Sigmoid

Softmax

Tanh或雙曲正切

ReLU

Leaky ReLU

為什么我們需要這么多不同的激活函數(shù),我怎么決定用哪一個呢?

讓我們回顧一下每一個激活函數(shù),并了解它們的最佳使用位置和原因。這將幫助我們決定在不同的場景中使用哪個激活函數(shù)。

閥值函數(shù)或階梯激活函數(shù)

圖文詳解:神經(jīng)網(wǎng)絡(luò)的激活函數(shù)

這是最簡單的函數(shù)

如果z值高于閾值,則激活設(shè)置為1或yes,神經(jīng)元將被激活。

如果z值低于閾值,則激活設(shè)置為0或no,神經(jīng)元不會被激活。

它們對二分類很有用?!?/p>

Sigmoid激活函數(shù)

圖文詳解:神經(jīng)網(wǎng)絡(luò)的激活函數(shù)

Sigmoid函數(shù)是一種光滑的非線性函數(shù),無扭結(jié),形狀類似于S形。

它預(yù)測輸出的概率,因此被用于神經(jīng)網(wǎng)絡(luò)和邏輯回歸的輸出層。

由于概率范圍在0到1之間,所以sigmoid函數(shù)值存在于0到1之間。

但是如果我們想分類更多的是或不是呢?如果我想預(yù)測多個類,比如預(yù)測晴天、雨天或陰天,該怎么辦?

Softmax激活有助于多類分類

Softmax激活函數(shù)

Sigmoid激活函數(shù)用于兩類或二類分類,而softmax用于多類分類,是對Sigmoid函數(shù)的一種推廣。

在softmax中,我們得到了每個類的概率,它們的和應(yīng)該等于1。當(dāng)一個類的概率增大時,其他類的概率減小,因此概率最大的類是輸出類。

例如:在預(yù)測天氣時,我們可以得到輸出概率,晴天為0.68,陰天為0.22,雨天為0.20。在這種情況下,我們以最大概率的輸出作為最終的輸出。在這種情況下我們預(yù)測明天將是晴天。

Softmax計算每個目標(biāo)類的概率除以所有可能的目標(biāo)類的概率。

圖文詳解:神經(jīng)網(wǎng)絡(luò)的激活函數(shù)

雙曲正切或Tanh激活函數(shù)

圖文詳解:神經(jīng)網(wǎng)絡(luò)的激活函數(shù)

對于雙曲tanh函數(shù),輸出以0為中心,輸出范圍在-1和+1之間。

看起來很像Sigmoid。實際上雙曲tanh是縮放的s形函數(shù)。與Sigmoid相比,tanh的梯度下降作用更強,因此比Sigmoid更受歡迎。

tanh的優(yōu)點是,負輸入將被映射為強負,零輸入將被映射為接近零,這在sigmoid中是不會發(fā)生的,因為sigmoid的范圍在0到1之間

ReLU

圖文詳解:神經(jīng)網(wǎng)絡(luò)的激活函數(shù)

ReLU本質(zhì)上是非線性的,這意味著它的斜率不是常數(shù)。Relu在0附近是非線性的,但斜率不是0就是1,因此具有有限的非線性。

范圍是從0到∞

當(dāng)z為正時,ReLU的輸出與輸入相同。當(dāng)z為0或小于0時,輸出為0。因此,當(dāng)輸入為0或低于0時,ReLU會關(guān)閉神經(jīng)元。

所有的深度學(xué)習(xí)模型都使用Relu,但由于Relu的稀疏性,只能用于隱含層。稀疏性指的是空值或“NA”值的數(shù)量。

當(dāng)隱層暴露于一定范圍的輸入值時,RELU函數(shù)將導(dǎo)致更多的零,從而導(dǎo)致更少的神經(jīng)元被激活,這將意味著更少的神經(jīng)網(wǎng)絡(luò)交互作用。

ReLU比sigmoid或tanh更積極地打開或關(guān)閉神經(jīng)元

Relu的挑戰(zhàn)在于,負值變?yōu)榱憬档土四P驼_訓(xùn)練數(shù)據(jù)的能力。為了解決這個問題,我們有Leaky ReLU

Leaky ReLU

圖文詳解:神經(jīng)網(wǎng)絡(luò)的激活函數(shù)

a的值通常是0.01

在Leaky ReLU中,我們引入了一個小的負斜率,所以它的斜率不是0。這有助于加快訓(xùn)練。

Leaky ReLU的范圍從-∞到+∞

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4814

    瀏覽量

    103577
  • 函數(shù)
    +關(guān)注

    關(guān)注

    3

    文章

    4380

    瀏覽量

    64849
  • 神經(jīng)元
    +關(guān)注

    關(guān)注

    1

    文章

    368

    瀏覽量

    18836
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的比較

    BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)在多個方面存在顯著差異,以下是對兩者的比較: 一、結(jié)構(gòu)特點 BP神經(jīng)網(wǎng)絡(luò) : BP神經(jīng)網(wǎng)絡(luò)是一種多層的前饋神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 02-12 15:53 ?662次閱讀

    BP神經(jīng)網(wǎng)絡(luò)的實現(xiàn)步驟詳解

    BP神經(jīng)網(wǎng)絡(luò)的實現(xiàn)步驟主要包括以下幾個階段:網(wǎng)絡(luò)初始化、前向傳播、誤差計算、反向傳播和權(quán)重更新。以下是對這些步驟的詳細解釋: 一、網(wǎng)絡(luò)初始化 確定網(wǎng)絡(luò)結(jié)構(gòu) : 根據(jù)輸入和輸出數(shù)據(jù)的特性
    的頭像 發(fā)表于 02-12 15:50 ?645次閱讀

    BP神經(jīng)網(wǎng)絡(luò)的優(yōu)缺點分析

    BP神經(jīng)網(wǎng)絡(luò)(Back Propagation Neural Network)作為一種常用的機器學(xué)習(xí)模型,具有顯著的優(yōu)點,同時也存在一些不容忽視的缺點。以下是對BP神經(jīng)網(wǎng)絡(luò)優(yōu)缺點的分析: 優(yōu)點
    的頭像 發(fā)表于 02-12 15:36 ?914次閱讀

    什么是BP神經(jīng)網(wǎng)絡(luò)的反向傳播算法

    BP神經(jīng)網(wǎng)絡(luò)的反向傳播算法(Backpropagation Algorithm)是一種用于訓(xùn)練神經(jīng)網(wǎng)絡(luò)的有效方法。以下是關(guān)于BP神經(jīng)網(wǎng)絡(luò)的反向傳播算法的介紹: 一、基本概念 反向傳播算法是BP
    的頭像 發(fā)表于 02-12 15:18 ?765次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)的關(guān)系

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)之間存在著密切的關(guān)系,以下是對它們之間關(guān)系的介紹: 一、BP神經(jīng)網(wǎng)絡(luò)的基本概念 BP神經(jīng)網(wǎng)絡(luò),即反向傳播神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural N
    的頭像 發(fā)表于 02-12 15:15 ?851次閱讀

    BP神經(jīng)網(wǎng)絡(luò)的基本原理

    輸入層、隱藏層和輸出層組成。其中,輸入層負責(zé)接收外部輸入數(shù)據(jù),這些數(shù)據(jù)隨后被傳遞到隱藏層。隱藏層是BP神經(jīng)網(wǎng)絡(luò)的核心部分,它可以通過一層或多層神經(jīng)元對輸入數(shù)據(jù)進行加權(quán)求和,并通過非線性激活函數(shù)
    的頭像 發(fā)表于 02-12 15:13 ?847次閱讀

    如何訓(xùn)練BP神經(jīng)網(wǎng)絡(luò)模型

    BP(Back Propagation)神經(jīng)網(wǎng)絡(luò)是一種經(jīng)典的人工神經(jīng)網(wǎng)絡(luò)模型,其訓(xùn)練過程主要分為兩個階段:前向傳播和反向傳播。以下是訓(xùn)練BP神經(jīng)網(wǎng)絡(luò)模型的步驟: 一、前向傳播 前向傳播是信號在
    的頭像 發(fā)表于 02-12 15:10 ?904次閱讀

    深度學(xué)習(xí)入門:簡單神經(jīng)網(wǎng)絡(luò)的構(gòu)建與實現(xiàn)

    神經(jīng)網(wǎng)絡(luò)。 首先,導(dǎo)入必要的庫: 收起 python ? import numpy as np ? 定義激活函數(shù) Sigmoid: 收起 python ? def sigmoid(x): return 1
    的頭像 發(fā)表于 01-23 13:52 ?528次閱讀

    人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法

    在上一篇文章中,我們介紹了傳統(tǒng)機器學(xué)習(xí)的基礎(chǔ)知識和多種算法。在本文中,我們會介紹人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法,供各位老師選擇。 01 人工神經(jīng)網(wǎng)絡(luò) ? 人工神經(jīng)網(wǎng)絡(luò)模型之所
    的頭像 發(fā)表于 01-09 10:24 ?1184次閱讀
    人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的原理和多種<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>架構(gòu)方法

    一文詳解物理信息神經(jīng)網(wǎng)絡(luò)

    物理信息神經(jīng)網(wǎng)絡(luò) (PINN) 是一種神經(jīng)網(wǎng)絡(luò),它將微分方程描述的物理定律納入其損失函數(shù)中,以引導(dǎo)學(xué)習(xí)過程得出更符合基本物理定律的解。
    的頭像 發(fā)表于 12-05 16:50 ?8340次閱讀
    一文<b class='flag-5'>詳解</b>物理信息<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>

    卷積神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的比較

    在深度學(xué)習(xí)領(lǐng)域,神經(jīng)網(wǎng)絡(luò)模型被廣泛應(yīng)用于各種任務(wù),如圖像識別、自然語言處理和游戲智能等。其中,卷積神經(jīng)網(wǎng)絡(luò)(CNNs)和傳統(tǒng)神經(jīng)網(wǎng)絡(luò)是兩種常見的模型。 1. 結(jié)構(gòu)差異 1.1 傳統(tǒng)神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 11-15 14:53 ?1866次閱讀

    RNN模型與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的區(qū)別

    神經(jīng)網(wǎng)絡(luò)是機器學(xué)習(xí)領(lǐng)域中的一種強大工具,它們能夠模擬人腦處理信息的方式。隨著技術(shù)的發(fā)展,神經(jīng)網(wǎng)絡(luò)的類型也在不斷增加,其中循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)和傳統(tǒng)神經(jīng)網(wǎng)絡(luò)(如前饋
    的頭像 發(fā)表于 11-15 09:42 ?1125次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)與工作機制

    LSTM(Long Short-Term Memory,長短期記憶)神經(jīng)網(wǎng)絡(luò)是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),設(shè)計用于解決長期依賴問題,特別是在處理時間序列數(shù)據(jù)時表現(xiàn)出色。以下是LSTM神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 11-13 10:05 ?1629次閱讀

    關(guān)于卷積神經(jīng)網(wǎng)絡(luò),這些概念你厘清了么~

    神經(jīng)元都是輸入的線性變換——將輸入乘以數(shù)字(權(quán)重w)并加上一個常數(shù)(偏置b),然后通過一個固定的非線性函數(shù)產(chǎn)生輸出,該函數(shù)也被稱為激活函數(shù)
    發(fā)表于 10-24 13:56

    matlab 神經(jīng)網(wǎng)絡(luò) 數(shù)學(xué)建模數(shù)值分析

    matlab神經(jīng)網(wǎng)絡(luò) 數(shù)學(xué)建模數(shù)值分析 精通的可以討論下
    發(fā)表于 09-18 15:14