一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

機器學習中的函數(shù):M-P神經(jīng)元、激活函數(shù)和感知機

wFVr_Hardware_1 ? 來源:硬件十萬個為什么 ? 作者:硬件十萬個為什么 ? 2022-11-02 14:42 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

怎樣理解激活函數(shù)呢?如果你現(xiàn)在正在一個世界500強的大廠里敲代碼,工作壓力巨大,“996”已經(jīng)成為常態(tài),但是你思前想后,考慮這份工作的薪水(權重w1)、免費午餐和咖啡(權重w2)、你對編碼的熱愛(權重w3)、公司離家近(權重w4)、老婆對你工作的認可(權重w5)等因素,綜合衡量后你決定忍了,或者說這一切并沒有超出你忍耐的閾值,把你的忍耐“功能”看作一個函數(shù),那么在這種場景下相當于你的函數(shù)輸出為0,目前還處于沒有被激活狀態(tài)。但是事情總是向你意想不到的方向變化的,你發(fā)現(xiàn)“996”正在逐步變成“007”,或者免費咖啡變成免費白水了,再或者上述因素的權重開始調整了,比如你好像不太在乎老婆對你的工作是否認可了,你終于不忍了,這時函數(shù)輸出超出了閾值,你把自己激活了,揚長而去。

1、一切的基礎:M-P神經(jīng)元

深度學習網(wǎng)絡實質上是層數(shù)較多的神經(jīng)網(wǎng)絡,那什么是神經(jīng)網(wǎng)絡呢?簡單來說是一種模仿動物神經(jīng)網(wǎng)絡行為特征,進行分布式并行處理信息的算法模型。人們總可以從萬能的大自然中學習到很多,比如通過研究鳥兒的翅膀發(fā)明飛機,在研究蝙蝠時獲得發(fā)明雷達的靈感,人們同樣也希望效仿大腦神經(jīng)網(wǎng)絡而獲得智能

模仿大腦神經(jīng)元的最早實例,是20世紀40年代提出并且一直沿用至今的“M-P神經(jīng)元模型”,這個M-P是什么意思?。窟@里有一段故事。

M-P神經(jīng)元模型,最早源于發(fā)表于1943年的一篇論文,論文的兩位作者分別是神經(jīng)生理學家沃倫·麥克洛克(Warren McCulloch)和數(shù)學家沃爾特·皮茨(Walter Pitts),論文首次實現(xiàn)了用一個簡單電路(也就是未來大名鼎鼎的感知機)來模擬大腦神經(jīng)元的行為。那時受《數(shù)學原理》的啟發(fā),麥克洛克正在嘗試用戈特弗里德·萊布尼茨(微積分發(fā)明人)的邏輯演算來構建一個大腦模型,這是一件極富挑戰(zhàn)性的事。麥克洛克猜想神經(jīng)元的工作機制很可能類似于邏輯門電路,接受多個輸入,產生單一的輸出,而通過改變神經(jīng)元的激發(fā)閾值以及神經(jīng)元之間的連接程度,就可以讓它執(zhí)行“與、或、非”等功能。但是麥克洛克的強項是神經(jīng)科學,他不擅長數(shù)學,難以形式化描述自己的想法。這時頗有數(shù)學才華的皮茨出場了,正好補其短板。當麥克洛克和皮茨完成他們的計算實驗時,實際上構造了一個操作性非常強的機械型精神模型,后人就用二人名稱的首字母稱呼這個模型“M-P神經(jīng)元模型”?;谒麄兊难芯堪l(fā)現(xiàn),麥克洛克和皮茨寫了一篇學術文章,這篇文章就是神經(jīng)網(wǎng)絡的天下第一文《神經(jīng)活動中思想內在性的邏輯演算》(A Logical Calculus ofIdeas Immanent in Nervous Activity),發(fā)表在著名期刊《數(shù)學生物物理學通報》。

2、神經(jīng)網(wǎng)絡被激活:激活函數(shù)

M-P神經(jīng)元模型中,神經(jīng)元接收來自n個其他神經(jīng)元傳遞過來的輸入信號。這些信號的表達通常通過神經(jīng)元之間連接的權重(Weight)大小來表示,神經(jīng)元將接收到的輸入值按照某種權重疊加起來,匯集了所有其他外聯(lián)神經(jīng)元的輸入,并將其作為一個結果輸出。但這種輸出并非直接輸出,而是與當前神經(jīng)元的閾值(θ就是閾值)進行比較,然后通過激活函數(shù)f(Activation Function)向外表達輸出,y就是最終的輸出。

怎樣理解激活函數(shù)呢?如果你現(xiàn)在正在一個世界500強的大廠里敲代碼,工作壓力巨大,“996”已經(jīng)成為常態(tài),但是你思前想后,考慮這份工作的薪水(權重w1)、免費午餐和咖啡(權重w2)、你對編碼的熱愛(權重w3)、公司離家近(權重w4)、老婆對你工作的認可(權重w5)等因素,綜合衡量后你決定忍了,或者說這一切并沒有超出你忍耐的閾值,把你的忍耐“功能”看作一個函數(shù),那么在這種場景下相當于你的函數(shù)輸出為0,目前還處于沒有被激活狀態(tài)。但是事情總是向你意想不到的方向變化的,你發(fā)現(xiàn)“996”正在逐步變成“007”,或者免費咖啡變成免費白水了,再或者上述因素的權重開始調整了,比如你好像不太在乎老婆對你的工作是否認可了,你終于不忍了,這時函數(shù)輸出超出了閾值,你把自己激活了,揚長而去

神經(jīng)元的工作模型存在“激活-》1”和“抑制-》0”兩種狀態(tài)的跳變,理想的激活函數(shù)就應該是的階躍函數(shù),但在實際使用中,這類函數(shù)具有不光滑、不連續(xù)等眾多不“友好”的特性, 于是Sigmoid激活函數(shù),Tanh 激活函數(shù),ReLU激活函數(shù),Softmax激活函數(shù)等等加強版出現(xiàn),根據(jù)不同需求各顯神通。

3、神經(jīng)網(wǎng)絡的“Hello World”:感知機

感知機是由康奈爾航空實驗室的心理學教授弗蘭克·羅森布拉特(Frank Rosenblatt)在1957年提出的一種人工神經(jīng)網(wǎng)絡,也被視為一種形式最簡單的前饋式人工神經(jīng)網(wǎng)絡,是一種二元線性分類器。羅森布拉特做了一個在當時看來非常令人“驚艷”的實驗,實驗的訓練數(shù)據(jù)是50組圖片,每組兩幅,由一張標識向左和一張標識向右的圖片組成。學著,學著,這部感知機就能“感知”出最佳的連接權值。然后,對于一個全新的圖片,在沒有任何人工干預的情況下,它能“獨立”判定出圖片標識為左還是為右。

感知機是一切神經(jīng)網(wǎng)絡學習的起點,是神經(jīng)網(wǎng)絡學習“Hello World”。感知機也被稱為“閾值邏輯單元”,我們在上文說“激活函數(shù)”時已經(jīng)講解過原理了。感知機有明確的結果導向性,比如下圖感知機的實例,目的就是區(qū)分“西瓜和香蕉”,感知機的“學習”就是,就是通過不斷的循環(huán)往復的試錯,調整神經(jīng)元之間的連接權值(w參數(shù)值)和神經(jīng)元閾值(θ參數(shù)值)等規(guī)則,最終只要能達到良好的分類目的就是好的規(guī)則。

4、人工智能的寒冬:感知機的問題

聰慧的你可能發(fā)現(xiàn),感知機很容易實現(xiàn)邏輯上的“與、或、非”等原子布爾函數(shù),但是感知機難以實現(xiàn)常見的“異或”邏輯操作。1972年,明斯基出版了《感知機:計算幾何簡介》一書,在書中論述了感知機模型存在的兩個關鍵問題,一是單層神經(jīng)網(wǎng)絡無法實現(xiàn)“異或門電路”等功能,第二是,即使使用當時最先進的計算機,也沒有足夠的計算能力去完成神經(jīng)網(wǎng)絡模型訓練所需的超大的計算量(比如調整網(wǎng)絡中的權重參數(shù))。這篇文章把人工智能送進了長達二十年的“冬天”,由于看不到前景,人工智能研究獲得的經(jīng)費大幅度減少,不少研究人員也不得不轉行。

審核編輯:郭婷


聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標題:機器學習中的函數(shù)(1)- 激活函數(shù)和感知機

文章出處:【微信號:Hardware_10W,微信公眾號:硬件十萬個為什么】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    無刷直流電機單神經(jīng)元自適應智能控制系統(tǒng)

    摘要:針對無刷直流電機(BLDCM)設計了一種可在線學習的單神經(jīng)元自適應比例-積分-微分(PID)智能控制器,通過有監(jiān)督的 Hebb學習規(guī)則調整權值,每次采樣根據(jù)反饋誤差對神經(jīng)元權值進
    發(fā)表于 06-26 13:36

    無刷直流電機單神經(jīng)元PI控制器的設計

    摘要:研究了一種基于專家系統(tǒng)的單神經(jīng)元PI控制器,并將其應用于無刷直流電機調速系統(tǒng)??刂破鲗崿F(xiàn)了PI參數(shù)的在線調整,在具有PID控制器良好動態(tài)性能的同時,減少微分項對系統(tǒng)穩(wěn)態(tài)運行時的影響,并較好
    發(fā)表于 06-26 13:34

    蚌埠:傳感“神經(jīng)元激活產業(yè)新脈動,智能傳感器產業(yè)邁向千億新征程

    的"神經(jīng)元",用微小身軀傳遞著海量信號。而在安徽蚌埠,一場關于"感知"的產業(yè)革命正澎湃上演。 ? 群賢畢至探"智感",第七屆智能傳感器產業(yè)發(fā)展大會啟幕 ? 5月24日,淮河之畔的蚌埠迎來一場科技盛宴——以"芯聚江淮 智感世界"為主題的
    的頭像 發(fā)表于 05-28 18:09 ?322次閱讀

    詳解RTOS的Hook函數(shù)

    Hook函數(shù)是RTOS的一個關鍵特性,通過該函數(shù),用戶可以增強對任務管理的控制,定義系統(tǒng)行為。
    的頭像 發(fā)表于 03-24 16:14 ?383次閱讀

    BP神經(jīng)網(wǎng)絡的實現(xiàn)步驟詳解

    網(wǎng)絡的層數(shù)、每層神經(jīng)元的數(shù)量以及激活函數(shù)。 初始化權重和偏置 : 隨機初始化輸入層與隱藏層、隱藏層與隱藏層、隱藏層與輸出層之間的連接權重,以及各層的偏置項。這些權重和偏置在訓練過程中會逐漸調整。 設置
    的頭像 發(fā)表于 02-12 15:50 ?637次閱讀

    BP神經(jīng)網(wǎng)絡的基本原理

    輸入層、隱藏層和輸出層組成。其中,輸入層負責接收外部輸入數(shù)據(jù),這些數(shù)據(jù)隨后被傳遞到隱藏層。隱藏層是BP神經(jīng)網(wǎng)絡的核心部分,它可以通過一層或多層神經(jīng)元對輸入數(shù)據(jù)進行加權求和,并通過非線性激活函數(shù)
    的頭像 發(fā)表于 02-12 15:13 ?844次閱讀

    如何訓練BP神經(jīng)網(wǎng)絡模型

    從輸入層向輸出層傳播的過程。具體來說,輸入層的信號經(jīng)過加權和運算后傳遞給隱藏層,隱藏層的神經(jīng)元接收來自前一層的信號,經(jīng)過激活函數(shù)處理后再傳遞給下一層,直到最終到達輸出層。每一層的輸出都是下一層輸入的來源。其中,y表示當前
    的頭像 發(fā)表于 02-12 15:10 ?902次閱讀

    深度學習入門:簡單神經(jīng)網(wǎng)絡的構建與實現(xiàn)

    深度學習神經(jīng)網(wǎng)絡是核心模型。今天我們用 Python 和 NumPy 構建一個簡單的神經(jīng)網(wǎng)絡。 神經(jīng)網(wǎng)絡由多個
    的頭像 發(fā)表于 01-23 13:52 ?528次閱讀

    人工神經(jīng)網(wǎng)絡的原理和多種神經(jīng)網(wǎng)絡架構方法

    所擬合的數(shù)學模型的形式受到大腦中神經(jīng)元的連接和行為的啟發(fā),最初是為了研究大腦功能而設計的。然而,數(shù)據(jù)科學中常用的神經(jīng)網(wǎng)絡作為大腦模型已經(jīng)過時,現(xiàn)在它們只是能夠在某些應用中提供最先進性能的機器
    的頭像 發(fā)表于 01-09 10:24 ?1181次閱讀
    人工<b class='flag-5'>神經(jīng)</b>網(wǎng)絡的原理和多種<b class='flag-5'>神經(jīng)</b>網(wǎng)絡架構方法

    【每天學點AI】前向傳播、損失函數(shù)、反向傳播

    在深度學習的領域中,前向傳播、反向傳播和損失函數(shù)是構建和訓練神經(jīng)網(wǎng)絡模型的三個核心概念。今天,小編將通過一個簡單的實例,解釋這三個概念,并展示它們的作用。前向傳播:神經(jīng)網(wǎng)絡的“思考”過
    的頭像 發(fā)表于 11-15 10:32 ?1219次閱讀
    【每天學點AI】前向傳播、損失<b class='flag-5'>函數(shù)</b>、反向傳播

    RNN的損失函數(shù)與優(yōu)化算法解析

    RNN的損失函數(shù) RNN(循環(huán)神經(jīng)網(wǎng)絡)在處理序列數(shù)據(jù)的過程,損失函數(shù)(Loss Function)扮演著重要的角色,它可以測量模型在訓練
    的頭像 發(fā)表于 11-15 10:16 ?1388次閱讀

    SUMIF函數(shù)與SUMIFS函數(shù)的區(qū)別

    SUMIF函數(shù)和SUMIFS函數(shù)都是Excel中用于條件求和的函數(shù),它們可以幫助用戶根據(jù)特定的條件對數(shù)據(jù)進行求和。盡管它們的基本功能相似,但在使用場景和功能上存在一些差異。以下是對這兩個函數(shù)
    的頭像 發(fā)表于 10-30 09:51 ?7493次閱讀

    關于卷積神經(jīng)網(wǎng)絡,這些概念你厘清了么~

    發(fā)表于 10-24 13:56

    RTOS鉤子函數(shù)的用途及用法

    在很多操作系統(tǒng),都存在這樣一類API函數(shù)接口:HOOK函數(shù)(也叫鉤子函數(shù))。
    的頭像 發(fā)表于 10-23 16:25 ?768次閱讀
    RTOS<b class='flag-5'>中</b>鉤子<b class='flag-5'>函數(shù)</b>的用途及用法

    Python自動訓練人工神經(jīng)網(wǎng)絡

    人工神經(jīng)網(wǎng)絡(ANN)是機器學習中一種重要的模型,它模仿了人腦神經(jīng)元的工作方式,通過多層節(jié)點(神經(jīng)元)之間的連接和權重調整來
    的頭像 發(fā)表于 07-19 11:54 ?697次閱讀