一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

神經(jīng)網(wǎng)絡(luò)之父

工程師 ? 來(lái)源:未知 ? 作者:姚遠(yuǎn)香 ? 2018-11-24 09:32 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

人工智能領(lǐng)域有三大奠基人,分別是Geoffrey Hinton、Yann LeCun與Yoshua Bengio。今天主要圍繞“神經(jīng)網(wǎng)絡(luò)之父”Geoffrey Hinton。

Geoffrey Hinton,被稱(chēng)為“神經(jīng)網(wǎng)絡(luò)之父”、“深度學(xué)習(xí)鼻祖”,他曾獲得愛(ài)丁堡大學(xué)人工智能的博士學(xué)位,并且為多倫多大學(xué)的特聘教授。在2012年,Hinton還獲得了加拿大基廉獎(jiǎng)(Killam Prizes,有“加拿大諾貝爾獎(jiǎng)”之稱(chēng)的國(guó)家最高科學(xué)獎(jiǎng))。2013年,Hinton 加入谷歌并帶領(lǐng)一個(gè)AI團(tuán)隊(duì),他將神經(jīng)網(wǎng)絡(luò)帶入到研究與應(yīng)用的熱潮,將“深度學(xué)習(xí)”從邊緣課題變成了谷歌等互聯(lián)網(wǎng)巨頭仰賴(lài)的核心技術(shù),并將HintonBack Propagation(反向傳播)算法應(yīng)用到神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)。

Geoffrey Hinton出生于戰(zhàn)后英國(guó)的溫布爾登,他的父親叫Howard Everest Hinton,是個(gè)英國(guó)昆蟲(chóng)學(xué)家,喜歡研究甲殼蟲(chóng)。他的母親Margaret是一位教師。而他們一家也都流淌著飽含聰明才智的DNA:他的叔叔是著名的經(jīng)濟(jì)學(xué)家Colin Clark,正是他發(fā)明了“國(guó)民生產(chǎn)總值”這個(gè)經(jīng)濟(jì)學(xué)術(shù)語(yǔ);他的曾曾祖父是著名的邏輯學(xué)家George Boole,他發(fā)明的布爾代數(shù)(Boolean algebra)奠定了現(xiàn)代計(jì)算機(jī)科學(xué)的基礎(chǔ)。

早在1960年代,Geoffrey Hinton的高中時(shí)期,就有一個(gè)朋友告訴他,人腦的工作原理就像全息圖一樣。創(chuàng)建一個(gè)3D全息圖,需要大量的記錄入射光被物體多次反射的結(jié)果,然后將這些信息存儲(chǔ)進(jìn)一個(gè)龐大的數(shù)據(jù)庫(kù)中。大腦儲(chǔ)存信息的方式居然與全息圖如此類(lèi)似,大腦并非將記憶儲(chǔ)存在一個(gè)特定的地方,而是在整個(gè)神經(jīng)網(wǎng)絡(luò)里傳播。Hinton為此深深的著迷。對(duì)Hinton來(lái)說(shuō),這是他人生的關(guān)鍵,也是他成功的起點(diǎn)。

當(dāng)時(shí)的學(xué)術(shù)界普遍認(rèn)為計(jì)算機(jī)在規(guī)則和邏輯方面做得最好,而神經(jīng)網(wǎng)絡(luò)的概念根本就是錯(cuò)誤的。但Hinton卻沒(méi)有絲毫動(dòng)搖,并于1972年在愛(ài)丁堡大學(xué)攻讀博士學(xué)位時(shí)毅然選擇了神經(jīng)網(wǎng)絡(luò)研究。每周,他的導(dǎo)師都會(huì)對(duì)他說(shuō):“你這是在浪費(fèi)時(shí)間?!钡獺inton的研究還是慢慢取得了一些成功。

博士畢業(yè)后,Hinton被里根政府的外交政策所困擾,因此帶著妻子搬到了多倫多,并接受了加拿大高級(jí)研究所的工作邀約。很快,Hinton組建起了一支專(zhuān)攻深度學(xué)習(xí)的人才團(tuán)隊(duì),其中就包括OpenAI的聯(lián)合創(chuàng)始人兼董事Ilya Sutskever?;貞浧?000年的“人工智能寒冬”, Sutskever說(shuō)道:“當(dāng)時(shí)我們只有十個(gè)人左右,資金非常匱乏。

九年時(shí)間飛逝,當(dāng)計(jì)算機(jī)終于有能力挖掘海量數(shù)據(jù)時(shí),超級(jí)神經(jīng)網(wǎng)絡(luò)開(kāi)始在語(yǔ)音和圖像識(shí)別方面超越基于邏輯的人工智能。很快,業(yè)內(nèi)的大型科技公司,如微軟、Facebook、谷歌等紛紛開(kāi)始投資。2012年,谷歌公司的絕密實(shí)驗(yàn)室GoogleX(現(xiàn)在名為X)宣布建立一個(gè)由16000個(gè)電腦處理器組成的神經(jīng)網(wǎng)絡(luò),并將其用在YouTube上。

隨后,該實(shí)驗(yàn)室從YouTube上提取了數(shù)百萬(wàn)個(gè)隨機(jī)的、沒(méi)有標(biāo)簽視頻,輸入到這臺(tái)新的超級(jí)計(jì)算機(jī)中,并通過(guò)編程使其能夠理解所看到的內(nèi)容。最終,神經(jīng)網(wǎng)格從無(wú)數(shù)個(gè)關(guān)于貓的視頻中成功分辨出了貓,這也成為了人工智能領(lǐng)域發(fā)展過(guò)程中的一個(gè)激動(dòng)人心的時(shí)刻。

之后,Hinton和他的助手們就成為了人工智能浪潮中的領(lǐng)導(dǎo)者。 2013年,Google X的高級(jí)研究員Jeff Dean將Hinton招進(jìn)了谷歌。有趣的是,原本就不屬于體制內(nèi)學(xué)者的Hinton,突然之間成為了體制的建立者。盡管觀點(diǎn)曾經(jīng)被業(yè)界拋棄,但如今他卻成為人工智能行業(yè)里最炙手可熱的人物。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    一文速覽:人工智能(AI)算法與GPU運(yùn)行原理詳解

    改變了人類(lèi)生活的方方面面,并且在未來(lái)仍然會(huì)繼續(xù)發(fā)揮越來(lái)越重要的影響力? “人工智能”這一概念在1956年于美國(guó)達(dá)特茅斯學(xué)院舉辦的一次學(xué)術(shù)集會(huì)上被首次提出,自此開(kāi)啟了人工智能研究的新紀(jì)元?自此之后,人工智能在曲折中不斷發(fā)展前進(jìn)? 1986年,神經(jīng)網(wǎng)絡(luò)之父Geoffrey H
    的頭像 發(fā)表于 02-14 10:28 ?751次閱讀
    一文速覽:人工智能(AI)算法與GPU運(yùn)行原理詳解

    BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的比較

    BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)在多個(gè)方面存在顯著差異,以下是對(duì)兩者的比較: 一、結(jié)構(gòu)特點(diǎn) BP神經(jīng)網(wǎng)絡(luò) : BP神經(jīng)網(wǎng)絡(luò)是一種多層的前饋神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 02-12 15:53 ?665次閱讀

    BP神經(jīng)網(wǎng)絡(luò)的優(yōu)缺點(diǎn)分析

    BP神經(jīng)網(wǎng)絡(luò)(Back Propagation Neural Network)作為一種常用的機(jī)器學(xué)習(xí)模型,具有顯著的優(yōu)點(diǎn),同時(shí)也存在一些不容忽視的缺點(diǎn)。以下是對(duì)BP神經(jīng)網(wǎng)絡(luò)優(yōu)缺點(diǎn)的分析: 優(yōu)點(diǎn)
    的頭像 發(fā)表于 02-12 15:36 ?919次閱讀

    什么是BP神經(jīng)網(wǎng)絡(luò)的反向傳播算法

    BP神經(jīng)網(wǎng)絡(luò)的反向傳播算法(Backpropagation Algorithm)是一種用于訓(xùn)練神經(jīng)網(wǎng)絡(luò)的有效方法。以下是關(guān)于BP神經(jīng)網(wǎng)絡(luò)的反向傳播算法的介紹: 一、基本概念 反向傳播算法是BP
    的頭像 發(fā)表于 02-12 15:18 ?766次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)的關(guān)系

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)之間存在著密切的關(guān)系,以下是對(duì)它們之間關(guān)系的介紹: 一、BP神經(jīng)網(wǎng)絡(luò)的基本概念 BP神經(jīng)網(wǎng)絡(luò),即反向傳播神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural N
    的頭像 發(fā)表于 02-12 15:15 ?855次閱讀

    BP神經(jīng)網(wǎng)絡(luò)的基本原理

    BP神經(jīng)網(wǎng)絡(luò)(Back Propagation Neural Network)的基本原理涉及前向傳播和反向傳播兩個(gè)核心過(guò)程。以下是關(guān)于BP神經(jīng)網(wǎng)絡(luò)基本原理的介紹: 一、網(wǎng)絡(luò)結(jié)構(gòu) BP神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 02-12 15:13 ?855次閱讀

    人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法

    在上一篇文章中,我們介紹了傳統(tǒng)機(jī)器學(xué)習(xí)的基礎(chǔ)知識(shí)和多種算法。在本文中,我們會(huì)介紹人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法,供各位老師選擇。 01 人工神經(jīng)網(wǎng)絡(luò) ? 人工神經(jīng)網(wǎng)絡(luò)模型之所
    的頭像 發(fā)表于 01-09 10:24 ?1188次閱讀
    人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的原理和多種<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>架構(gòu)方法

    卷積神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的比較

    在深度學(xué)習(xí)領(lǐng)域,神經(jīng)網(wǎng)絡(luò)模型被廣泛應(yīng)用于各種任務(wù),如圖像識(shí)別、自然語(yǔ)言處理和游戲智能等。其中,卷積神經(jīng)網(wǎng)絡(luò)(CNNs)和傳統(tǒng)神經(jīng)網(wǎng)絡(luò)是兩種常見(jiàn)的模型。 1. 結(jié)構(gòu)差異 1.1 傳統(tǒng)神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 11-15 14:53 ?1868次閱讀

    RNN模型與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的區(qū)別

    神經(jīng)網(wǎng)絡(luò)是機(jī)器學(xué)習(xí)領(lǐng)域中的一種強(qiáng)大工具,它們能夠模擬人腦處理信息的方式。隨著技術(shù)的發(fā)展,神經(jīng)網(wǎng)絡(luò)的類(lèi)型也在不斷增加,其中循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)和傳統(tǒng)神經(jīng)網(wǎng)絡(luò)(如前饋
    的頭像 發(fā)表于 11-15 09:42 ?1125次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)與工作機(jī)制

    LSTM(Long Short-Term Memory,長(zhǎng)短期記憶)神經(jīng)網(wǎng)絡(luò)是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),設(shè)計(jì)用于解決長(zhǎng)期依賴(lài)問(wèn)題,特別是在處理時(shí)間序列數(shù)據(jù)時(shí)表現(xiàn)出色。以下是LSTM神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 11-13 10:05 ?1631次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)RNN的區(qū)別

    在深度學(xué)習(xí)領(lǐng)域,循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)因其能夠處理序列數(shù)據(jù)而受到廣泛關(guān)注。然而,傳統(tǒng)RNN在處理長(zhǎng)序列時(shí)存在梯度消失或梯度爆炸的問(wèn)題。為了解決這一問(wèn)題,LSTM(長(zhǎng)短期記憶)神經(jīng)網(wǎng)絡(luò)應(yīng)運(yùn)而生。 循環(huán)
    的頭像 發(fā)表于 11-13 09:58 ?1213次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)的基本原理 如何實(shí)現(xiàn)LSTM神經(jīng)網(wǎng)絡(luò)

    LSTM(長(zhǎng)短期記憶)神經(jīng)網(wǎng)絡(luò)是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),它能夠?qū)W習(xí)長(zhǎng)期依賴(lài)信息。在處理序列數(shù)據(jù)時(shí),如時(shí)間序列分析、自然語(yǔ)言處理等,LSTM因其能夠有效地捕捉時(shí)間序列中的長(zhǎng)期依賴(lài)關(guān)系而受到
    的頭像 發(fā)表于 11-13 09:53 ?1582次閱讀

    Moku人工神經(jīng)網(wǎng)絡(luò)101

    Moku3.3版更新在Moku:Pro平臺(tái)新增了全新的儀器功能【神經(jīng)網(wǎng)絡(luò)】,使用戶(hù)能夠在Moku設(shè)備上部署實(shí)時(shí)機(jī)器學(xué)習(xí)算法,進(jìn)行快速、靈活的信號(hào)分析、去噪、傳感器調(diào)節(jié)校準(zhǔn)、閉環(huán)反饋等應(yīng)用。如果您
    的頭像 發(fā)表于 11-01 08:06 ?664次閱讀
    Moku人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>101

    matlab 神經(jīng)網(wǎng)絡(luò) 數(shù)學(xué)建模數(shù)值分析

    matlab神經(jīng)網(wǎng)絡(luò) 數(shù)學(xué)建模數(shù)值分析 精通的可以討論下
    發(fā)表于 09-18 15:14

    如何構(gòu)建多層神經(jīng)網(wǎng)絡(luò)

    構(gòu)建多層神經(jīng)網(wǎng)絡(luò)(MLP, Multi-Layer Perceptron)模型是一個(gè)在機(jī)器學(xué)習(xí)和深度學(xué)習(xí)領(lǐng)域廣泛使用的技術(shù),尤其在處理分類(lèi)和回歸問(wèn)題時(shí)。在本文中,我們將深入探討如何從頭開(kāi)始構(gòu)建一個(gè)多層神經(jīng)網(wǎng)絡(luò)模型,包括模型設(shè)計(jì)、數(shù)據(jù)預(yù)處理、模型訓(xùn)練、評(píng)估以及優(yōu)化等方面的內(nèi)
    的頭像 發(fā)表于 07-19 17:19 ?1565次閱讀