一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

神經(jīng)進(jìn)化說的是什么?

倩倩 ? 來源:巡洋艦人工智能學(xué)堂 ? 2020-04-17 14:35 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

Nature新子刊Machine intelligence中有一篇12頁的綜述,匯總介紹了神經(jīng)進(jìn)化這一前沿的研究方向在神經(jīng)網(wǎng)絡(luò)中的眾多應(yīng)用。本文用5分鐘概述該文的主要觀點(diǎn),對(duì)于不了解神經(jīng)進(jìn)化的讀者,本文將先帶你認(rèn)識(shí)神經(jīng)進(jìn)化說的是什么?你不需要太多的背景知識(shí),也能讀懂本文。

人工的神經(jīng)網(wǎng)絡(luò)是依靠梯度的反向傳播來進(jìn)行優(yōu)化的,而在生物界中,神經(jīng)網(wǎng)絡(luò)中并沒有指出優(yōu)化方向的梯度,感知從下而上正向傳播,之后相近的刺激帶來共同激活的神經(jīng)元,再用這些連接來對(duì)新事物編碼及預(yù)測(cè),而一切都依賴于進(jìn)化機(jī)制。所謂神經(jīng)進(jìn)化,就是用遺傳算法來進(jìn)行神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)生成,參數(shù)更新及整體的效率優(yōu)化。其基本的循環(huán)是突變-》選擇-》繁衍-》再突變。

下圖來自莫煩Python視頻,其中對(duì)比了兩種神經(jīng)進(jìn)化的策略,一種是不固定網(wǎng)絡(luò)的結(jié)構(gòu),通過神經(jīng)網(wǎng)絡(luò)間的交叉配對(duì)形成下一代的網(wǎng)絡(luò),另一組是固定結(jié)構(gòu),每一代網(wǎng)絡(luò)中通過引入突變改變連接的強(qiáng)度,最終倆者都通過進(jìn)化的優(yōu)勝劣汰來實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)的最優(yōu)化。

不同于傳統(tǒng)的隨機(jī)梯度下降,是基于對(duì)現(xiàn)在錯(cuò)誤來源的外推決定下一步進(jìn)化的方向,即使引入了隨機(jī)性,也只是在原有方向上引入高斯誤差,是一種事后的彌補(bǔ),而神經(jīng)進(jìn)化是通過在下一代中引入在算法空間中性質(zhì)完全不同的點(diǎn),之后根據(jù)適應(yīng)度在這些點(diǎn)之間進(jìn)行內(nèi)推,雖然速度慢,但是可以更大規(guī)模的并行處理,且能夠更好的避免陷入局部最優(yōu)。

神經(jīng)進(jìn)化不止在監(jiān)督學(xué)習(xí)中應(yīng)用廣泛,在深度強(qiáng)化學(xué)習(xí)中也有廣泛的應(yīng)用。Uber開發(fā)的開源工具Visual Inspector for Neuroevolution(VINE),可以用于神經(jīng)演化的交互式數(shù)據(jù)可視化工具。而下文的作者之一也來自Uber的AI實(shí)驗(yàn)室。

在結(jié)束背景介紹之后,進(jìn)入這篇論文本身的介紹。作者首先指出了神經(jīng)進(jìn)化相比神經(jīng)網(wǎng)絡(luò)的幾個(gè)獨(dú)特的能力,包括通過學(xué)習(xí)找到合適的網(wǎng)絡(luò)組成部分(例如激活函數(shù)),以及網(wǎng)絡(luò)的超參數(shù)(有幾層,每層有多少神經(jīng)元)以及用于的學(xué)習(xí)策略本身。不同于AutoML的自動(dòng)化調(diào)參,神經(jīng)進(jìn)化始終在搜索答案中保持著一個(gè)多樣的解法“種群”,而且由于神經(jīng)進(jìn)化的研究和傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)并沒有多少交集,因此倆者之間的匯總更容易擦出火花。

最初的神經(jīng)進(jìn)化關(guān)注小規(guī)模網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu)的演化,最初的進(jìn)化算法僅僅是通過(神經(jīng)元)連接矩陣間的權(quán)重加上隨機(jī)突變來展開,之后受到基因間調(diào)控網(wǎng)絡(luò)的啟發(fā),對(duì)網(wǎng)絡(luò)結(jié)構(gòu)展開了間接的編碼。隨著引入在倆個(gè)網(wǎng)絡(luò)結(jié)構(gòu)中的雜交(crossover),神經(jīng)進(jìn)化可以探索更為復(fù)雜的網(wǎng)絡(luò)結(jié)構(gòu),但需要面對(duì)如何避免讓新生成的網(wǎng)絡(luò)結(jié)構(gòu)由于缺少足夠的時(shí)間進(jìn)行局部?jī)?yōu)化而無法發(fā)揮出其最優(yōu)的性能,該方向上最顯著的成果是NeuroEvolution of Augmenting Topologies (NEAT)算法,該算法的成果包括模擬機(jī)器人行走的控制程序,下圖分別是使用遺傳算法和進(jìn)化策略訓(xùn)練模擬機(jī)器人走路(來自UberAI實(shí)驗(yàn)室Mujoco 人)

在強(qiáng)化學(xué)習(xí)領(lǐng)域,natural evolutionary strategy可以在 Atari 游戲機(jī)上和Deep Q learning有相近的表現(xiàn),而且這些算法的并行潛力使得這些算法在有足夠計(jì)算資源時(shí),可以用更快的時(shí)間完成訓(xùn)練,盡管神經(jīng)進(jìn)化需要的總的計(jì)算資源要多一些。神經(jīng)進(jìn)化在強(qiáng)化學(xué)習(xí)中的成功說明了神經(jīng)進(jìn)化方法可以用在現(xiàn)實(shí)中的復(fù)雜問題上。

Lehman將神經(jīng)進(jìn)化和梯度結(jié)合了起來。該方法的靈感來自是通過梯度去選擇出那些不那么危險(xiǎn)的突變。由于強(qiáng)化學(xué)習(xí)中評(píng)估一個(gè)策略的適應(yīng)度需要花費(fèi)的比評(píng)估網(wǎng)絡(luò)本身要花費(fèi)更多的資源,前者需要運(yùn)行游戲或者模擬環(huán)境數(shù)回合,才能看到收益,而后者只需要去將網(wǎng)絡(luò)中的錯(cuò)誤項(xiàng)前向傳播幾步即可。神經(jīng)進(jìn)化中對(duì)策略(policy)加以隨機(jī)的突變,部分突變不會(huì)影響策略的性能,但少部分會(huì)讓該策略徹底失效。通過對(duì)狀態(tài)和行為歸檔記錄,可以通過梯度信息對(duì)變異的大小進(jìn)行縮放,從而避免突變后的策略對(duì)于當(dāng)前的狀態(tài)過于激進(jìn)或保守,從而使得在深度超過100層的網(wǎng)絡(luò)上可以使用神經(jīng)進(jìn)化的策略。

神經(jīng)進(jìn)化可以模擬真實(shí)進(jìn)化中對(duì)多樣性和新奇策略的偏好,在要優(yōu)化的目標(biāo)中對(duì)全新的策略給予獎(jiǎng)勵(lì),從而避免陷入局部最優(yōu),或者以策略種群的多樣性為優(yōu)化主要目標(biāo)。在強(qiáng)化學(xué)習(xí)中,一個(gè)策略要想和其他策略不同,需要具有不同的基礎(chǔ)能力,從而使策略種群多樣性為優(yōu)化目標(biāo)好于人為設(shè)定的損失函數(shù)。

總結(jié):神經(jīng)進(jìn)化在meta learning,多任務(wù)學(xué)習(xí)中都可以和現(xiàn)有方法結(jié)合。正如卷積操作就是一種編碼信息的方式,神經(jīng)進(jìn)化還可以找到更好的對(duì)信息進(jìn)行間接編碼(Indirect coding)的方法以及通過進(jìn)化策略重現(xiàn)出類似LSTM的網(wǎng)絡(luò)結(jié)構(gòu)。強(qiáng)化學(xué)習(xí)中的自我對(duì)弈可以看成是神經(jīng)進(jìn)化的一種,而對(duì)策略多樣性的偏好也鼓勵(lì)了模型對(duì)新策略的探索。最后,在通向通用人工智能的路上,神經(jīng)進(jìn)化通過構(gòu)建開放目地的(open-endedness)的系統(tǒng),讓策略不帶有先驗(yàn)?zāi)康氐奶剿鳎M自然界的進(jìn)化,最終得到一個(gè)足夠普適的智能系統(tǒng)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    驅(qū)動(dòng)下一代E/E架構(gòu)的神經(jīng)脈絡(luò)進(jìn)化—10BASE-T1S

    隨著“中央+區(qū)域”架構(gòu)的演進(jìn),10BASE-T1S憑借其獨(dú)特優(yōu)勢(shì),將成為驅(qū)動(dòng)下一代汽車電子電氣(E/E)架構(gòu)“神經(jīng)系統(tǒng)”進(jìn)化的關(guān)鍵技術(shù)。
    的頭像 發(fā)表于 07-08 18:17 ?485次閱讀
    驅(qū)動(dòng)下一代E/E架構(gòu)的<b class='flag-5'>神經(jīng)</b>脈絡(luò)<b class='flag-5'>進(jìn)化</b>—10BASE-T1S

    “可升級(jí)的汽車”:從特斯拉到鴻蒙智行的進(jìn)化

    硬件升級(jí),正成為汽車進(jìn)化的新賽點(diǎn)
    的頭像 發(fā)表于 04-14 12:31 ?300次閱讀
    “可升級(jí)的汽車”:從特斯拉到鴻蒙智行的<b class='flag-5'>進(jìn)化</b>史

    BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的比較

    BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)在多個(gè)方面存在顯著差異,以下是對(duì)兩者的比較: 一、結(jié)構(gòu)特點(diǎn) BP神經(jīng)網(wǎng)絡(luò) : BP神經(jīng)網(wǎng)絡(luò)是一種多層的前饋神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 02-12 15:53 ?668次閱讀

    BP神經(jīng)網(wǎng)絡(luò)的優(yōu)缺點(diǎn)分析

    BP神經(jīng)網(wǎng)絡(luò)(Back Propagation Neural Network)作為一種常用的機(jī)器學(xué)習(xí)模型,具有顯著的優(yōu)點(diǎn),同時(shí)也存在一些不容忽視的缺點(diǎn)。以下是對(duì)BP神經(jīng)網(wǎng)絡(luò)優(yōu)缺點(diǎn)的分析: 優(yōu)點(diǎn)
    的頭像 發(fā)表于 02-12 15:36 ?921次閱讀

    什么是BP神經(jīng)網(wǎng)絡(luò)的反向傳播算法

    BP神經(jīng)網(wǎng)絡(luò)的反向傳播算法(Backpropagation Algorithm)是一種用于訓(xùn)練神經(jīng)網(wǎng)絡(luò)的有效方法。以下是關(guān)于BP神經(jīng)網(wǎng)絡(luò)的反向傳播算法的介紹: 一、基本概念 反向傳播算法是BP
    的頭像 發(fā)表于 02-12 15:18 ?768次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)的關(guān)系

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)之間存在著密切的關(guān)系,以下是對(duì)它們之間關(guān)系的介紹: 一、BP神經(jīng)網(wǎng)絡(luò)的基本概念 BP神經(jīng)網(wǎng)絡(luò),即反向傳播神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural N
    的頭像 發(fā)表于 02-12 15:15 ?861次閱讀

    BP神經(jīng)網(wǎng)絡(luò)的基本原理

    BP神經(jīng)網(wǎng)絡(luò)(Back Propagation Neural Network)的基本原理涉及前向傳播和反向傳播兩個(gè)核心過程。以下是關(guān)于BP神經(jīng)網(wǎng)絡(luò)基本原理的介紹: 一、網(wǎng)絡(luò)結(jié)構(gòu) BP神經(jīng)網(wǎng)絡(luò)通常由
    的頭像 發(fā)表于 02-12 15:13 ?857次閱讀

    大模型進(jìn)化論:AI產(chǎn)業(yè)落地將卷向何方?

    大模型進(jìn)化論:AI產(chǎn)業(yè)落地將卷向何方?
    的頭像 發(fā)表于 01-24 09:28 ?346次閱讀

    人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法

    在上一篇文章中,我們介紹了傳統(tǒng)機(jī)器學(xué)習(xí)的基礎(chǔ)知識(shí)和多種算法。在本文中,我們會(huì)介紹人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法,供各位老師選擇。 01 人工神經(jīng)網(wǎng)絡(luò) ? 人工神經(jīng)網(wǎng)絡(luò)模型之所
    的頭像 發(fā)表于 01-09 10:24 ?1190次閱讀
    人工<b class='flag-5'>神經(jīng)</b>網(wǎng)絡(luò)的原理和多種<b class='flag-5'>神經(jīng)</b>網(wǎng)絡(luò)架構(gòu)方法

    卷積神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的比較

    在深度學(xué)習(xí)領(lǐng)域,神經(jīng)網(wǎng)絡(luò)模型被廣泛應(yīng)用于各種任務(wù),如圖像識(shí)別、自然語言處理和游戲智能等。其中,卷積神經(jīng)網(wǎng)絡(luò)(CNNs)和傳統(tǒng)神經(jīng)網(wǎng)絡(luò)是兩種常見的模型。 1. 結(jié)構(gòu)差異 1.1 傳統(tǒng)神經(jīng)
    的頭像 發(fā)表于 11-15 14:53 ?1872次閱讀

    RNN模型與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的區(qū)別

    神經(jīng)網(wǎng)絡(luò)是機(jī)器學(xué)習(xí)領(lǐng)域中的一種強(qiáng)大工具,它們能夠模擬人腦處理信息的方式。隨著技術(shù)的發(fā)展,神經(jīng)網(wǎng)絡(luò)的類型也在不斷增加,其中循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)和傳統(tǒng)神經(jīng)網(wǎng)絡(luò)(如前饋
    的頭像 發(fā)表于 11-15 09:42 ?1128次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)與工作機(jī)制

    LSTM(Long Short-Term Memory,長(zhǎng)短期記憶)神經(jīng)網(wǎng)絡(luò)是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),設(shè)計(jì)用于解決長(zhǎng)期依賴問題,特別是在處理時(shí)間序列數(shù)據(jù)時(shí)表現(xiàn)出色。以下是LSTM神經(jīng)
    的頭像 發(fā)表于 11-13 10:05 ?1631次閱讀

    Moku人工神經(jīng)網(wǎng)絡(luò)101

    Moku3.3版更新在Moku:Pro平臺(tái)新增了全新的儀器功能【神經(jīng)網(wǎng)絡(luò)】,使用戶能夠在Moku設(shè)備上部署實(shí)時(shí)機(jī)器學(xué)習(xí)算法,進(jìn)行快速、靈活的信號(hào)分析、去噪、傳感器調(diào)節(jié)校準(zhǔn)、閉環(huán)反饋等應(yīng)用。如果您
    的頭像 發(fā)表于 11-01 08:06 ?666次閱讀
    Moku人工<b class='flag-5'>神經(jīng)</b>網(wǎng)絡(luò)101

    關(guān)于卷積神經(jīng)網(wǎng)絡(luò),這些概念你厘清了么~

    隨著人工智能(AI)技術(shù)的快速發(fā)展,AI可以越來越多地支持以前無法實(shí)現(xiàn)或者難以實(shí)現(xiàn)的應(yīng)用。本文基于此解釋了 卷積神經(jīng)網(wǎng)絡(luò) (CNN)及其對(duì)人工智能和機(jī)器學(xué)習(xí)的意義。CNN是一種能夠從復(fù)雜數(shù)據(jù)中提
    發(fā)表于 10-24 13:56

    matlab 神經(jīng)網(wǎng)絡(luò) 數(shù)學(xué)建模數(shù)值分析

    matlab神經(jīng)網(wǎng)絡(luò) 數(shù)學(xué)建模數(shù)值分析 精通的可以討論下
    發(fā)表于 09-18 15:14