一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

三句話讓你認(rèn)識(shí)深度學(xué)習(xí)

汽車玩家 ? 來源:達(dá)爾文文 ? 作者:達(dá)爾文文 ? 2020-04-21 17:25 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

開宗明義,三句話認(rèn)識(shí)深度學(xué)習(xí)

深度學(xué)習(xí)是一種機(jī)器學(xué)習(xí)

深度學(xué)習(xí)首先是一種機(jī)器學(xué)習(xí)。深度學(xué)習(xí)的基礎(chǔ),叫做神經(jīng)網(wǎng)絡(luò),這本身就是一種機(jī)器學(xué)習(xí)算法。近年來,隨著深度學(xué)習(xí)的火熱和深入人心,人們漸漸將這一概念獨(dú)立出來,由此有了深度學(xué)習(xí)和傳統(tǒng)機(jī)器學(xué)習(xí)的區(qū)分。

如今神經(jīng)網(wǎng)絡(luò)快速發(fā)展,傳統(tǒng)的機(jī)器學(xué)習(xí)何去何從?

其實(shí),都只是算法,一種解決問題的辦法,而已。

關(guān)于算法,關(guān)于機(jī)器學(xué)習(xí),我們引用卡內(nèi)基梅隆大學(xué)(Carnegie Mellon University)Tom Michael Mitchell教授在其1997年出版的書籍Machine Learning中的定義, —— “如果一個(gè)程序可以在任務(wù)T上,隨著經(jīng)驗(yàn)E的增加,效果P也可以隨之增加,則稱這個(gè)程序可以從經(jīng)驗(yàn)中學(xué)習(xí)”[1]

怎么理解這句話呢?以推薦系統(tǒng)為例,我們使用某一類機(jī)器學(xué)習(xí)算法(“一個(gè)程序”),根據(jù)用戶的過往記錄做推薦(“任務(wù)T”),那么隨著用戶的過往記錄不斷積累(“經(jīng)驗(yàn)E”),能夠做的推薦就更準(zhǔn)確(“效果P”)。

簡(jiǎn)而言之,機(jī)器的“學(xué)習(xí)”,是通過以往的經(jīng)驗(yàn),即數(shù)據(jù),學(xué)習(xí)數(shù)據(jù)內(nèi)部的邏輯,并將學(xué)到的邏輯應(yīng)用在新數(shù)據(jù)上,進(jìn)行預(yù)測(cè)。

深度學(xué)習(xí)是一種機(jī)器學(xué)習(xí),要真的追究起來,人工智能、機(jī)器學(xué)習(xí)和深度學(xué)習(xí),三者大概是下面這個(gè)關(guān)系。

三句話讓你認(rèn)識(shí)深度學(xué)習(xí)

人工智能、機(jī)器學(xué)習(xí)和深度學(xué)習(xí)三者的關(guān)系

深度學(xué)習(xí)是一個(gè)數(shù)學(xué)問題

機(jī)器學(xué)習(xí)和數(shù)學(xué),是深度學(xué)習(xí)的一體兩面。

機(jī)器學(xué)習(xí)是深度學(xué)習(xí)的方法論,數(shù)學(xué)是其背后的理論支撐。

其實(shí)每一種算法,究其根本,都是一種數(shù)學(xué)表達(dá)。無論是機(jī)器學(xué)習(xí),還是深度學(xué)習(xí),都是試圖找到一個(gè)函數(shù),這個(gè)函數(shù)可以簡(jiǎn)單,可以復(fù)雜,函數(shù)的表達(dá)并不重要,只是一個(gè)工具,重要的是這個(gè)函數(shù)能夠盡可能準(zhǔn)確的擬合出輸入數(shù)據(jù)和輸出結(jié)果間的關(guān)系。就像我們?cè)诟鱾€(gè)任務(wù)中做的那樣,比如語(yǔ)音識(shí)別、圖像識(shí)別、下圍棋,人機(jī)問答系統(tǒng):

三句話讓你認(rèn)識(shí)深度學(xué)習(xí)

機(jī)器學(xué)習(xí)在找輸入和輸出之間的關(guān)系

這就是機(jī)器學(xué)習(xí)要做到的事,找到一個(gè)數(shù)學(xué)表達(dá),即上述例子中的函數(shù)f。

而深度學(xué)習(xí)的魅力在于,它的數(shù)學(xué)表達(dá)特別的強(qiáng)!

深度學(xué)習(xí)的強(qiáng)大是有數(shù)學(xué)原理支撐的,這個(gè)原理叫做“萬能近似定理”(Universal approximation theorem)。這個(gè)定理的道理很簡(jiǎn)單 —— 神經(jīng)網(wǎng)絡(luò)可以擬合任何函數(shù),不管這個(gè)函數(shù)的表達(dá)是多么的復(fù)雜。

因?yàn)檫@個(gè)定理,深度學(xué)習(xí)在擬合函數(shù)這一方面的能力十分強(qiáng)大、暴力和神秘。

但是,哪有免費(fèi)的午餐,深度學(xué)習(xí)的強(qiáng)大也帶來了對(duì)應(yīng)的問題 —— 黑箱化

深度學(xué)習(xí)是一個(gè)黑箱

黑箱的意思是,深度學(xué)習(xí)的中間過程不可知,深度學(xué)習(xí)產(chǎn)生的結(jié)果不可控。

一方面,我們比較難知道網(wǎng)絡(luò)具體在做些什么;另一方面,我們很難解釋神經(jīng)網(wǎng)絡(luò)在解決問題的時(shí)候,為什么要這么做,為什么有效果。

在傳統(tǒng)的機(jī)器學(xué)習(xí)中,算法的結(jié)構(gòu)大多充滿了邏輯,這種結(jié)構(gòu)可以被人分析,最終抽象為某種流程圖或者一個(gè)代數(shù)上的公式,最典型的比如決策樹,具有非常高的可解釋性。

三句話讓你認(rèn)識(shí)深度學(xué)習(xí)

一個(gè)決策樹的例子

到了深度學(xué)習(xí),這樣子的直觀就不見了。簡(jiǎn)單來說,深度學(xué)習(xí)的工作原理,是通過一層層神經(jīng)網(wǎng)絡(luò),使得輸入的信息在經(jīng)過每一層時(shí),都做一個(gè)數(shù)學(xué)擬合,這樣每一層都提供了一個(gè)函數(shù)。因?yàn)樯疃葘W(xué)習(xí)有好多層,通過這每一層的函數(shù)的疊加,深度學(xué)習(xí)網(wǎng)絡(luò)的輸出就無限逼近目標(biāo)輸出了。這樣一種“萬能近似”,很多時(shí)候是輸入和輸出在數(shù)值上的一種耦合,而不是真的找到了一種代數(shù)上的表達(dá)式。當(dāng)我們?cè)谡f”擬合“、”函數(shù)“這一類詞的時(shí)候,你或許認(rèn)為我們會(huì)像寫公式一樣把輸入和輸出之間的關(guān)系列在黑板上。但事實(shí)并不是這樣,深度學(xué)習(xí)擬合出來的函數(shù),一般人還真寫不出來……

所以,很多時(shí)候,你的深度學(xué)習(xí)網(wǎng)絡(luò)能很好的完成你的任務(wù),可是你并不知道網(wǎng)絡(luò)學(xué)習(xí)到了什么,也不知道網(wǎng)絡(luò)為什么做出了特定的選擇。知其然而不知其所以然,這可以看作是深度學(xué)習(xí)的常態(tài),也是深度學(xué)習(xí)工作中的一大挑戰(zhàn)。

盡管如此,深度學(xué)習(xí)還是好用的……

誰用誰知道!

所以 ——

擁抱不確定性,愛上深度學(xué)習(xí)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    “一句話秒出PPT“的榮耀YOYO,AI生產(chǎn)力有多強(qiáng)?

    釋放AI生產(chǎn)力,榮耀智能體告別發(fā)布會(huì)炫技
    的頭像 發(fā)表于 07-14 14:15 ?310次閱讀
    “一<b class='flag-5'>句話</b>秒出PPT“的榮耀YOYO,AI生產(chǎn)力有多強(qiáng)?

    FOC中的種電流采樣方式,真的會(huì)選擇嗎?(可下載)

    的基礎(chǔ),用一句話來形容就是“基礎(chǔ)不對(duì),努力白費(fèi)”,由此可見電流采樣在整 個(gè) FOC 算法中的作用電流采樣的方式一般分為電阻、雙電阻、單電阻,這種采樣方式都有其
    發(fā)表于 03-12 15:04 ?0次下載

    為什么的設(shè)備還不夠“聽話”?

    語(yǔ)音+電機(jī)控制方案控制更智能!為什么的設(shè)備還不夠“聽話”?傳統(tǒng)家電和家居設(shè)備往往需要手動(dòng)操作,而語(yǔ)音+電機(jī)控制方案,正是打破這一局限的鑰匙:語(yǔ)音指令:一句話操控設(shè)備,無需動(dòng)手,徹底解放雙手。電機(jī)
    的頭像 發(fā)表于 02-14 18:01 ?322次閱讀
    為什么<b class='flag-5'>你</b>的設(shè)備還不夠“聽話”?

    軍事應(yīng)用中深度學(xué)習(xí)的挑戰(zhàn)與機(jī)遇

    人工智能尤其是深度學(xué)習(xí)技術(shù)的最新進(jìn)展,加速了不同應(yīng)用領(lǐng)域的創(chuàng)新與發(fā)展。深度學(xué)習(xí)技術(shù)的發(fā)展深刻影響了軍事發(fā)展趨勢(shì),導(dǎo)致戰(zhàn)爭(zhēng)形式和模式發(fā)生重大變化。本文將概述
    的頭像 發(fā)表于 02-14 11:15 ?530次閱讀

    晶科能源N型TOPCon技術(shù)為什么能領(lǐng)跑行業(yè)

    晶科能源在N型TOPCon的領(lǐng)導(dǎo)者地位,用一句話形容就是:領(lǐng)先行業(yè)6個(gè)月!
    的頭像 發(fā)表于 11-21 11:08 ?789次閱讀
    晶科能源N型TOPCon技術(shù)為什么能領(lǐng)跑行業(yè)

    NPU在深度學(xué)習(xí)中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)作為其核心驅(qū)動(dòng)力之一,已經(jīng)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和價(jià)值。NPU(Neural Processing Unit,神經(jīng)網(wǎng)絡(luò)處理單元)是專門為深度學(xué)習(xí)
    的頭像 發(fā)表于 11-14 15:17 ?1897次閱讀

    開關(guān)電源布線 一句話:要運(yùn)行最穩(wěn)定、波形最漂亮、電磁兼容性最好

    開關(guān)電源在布線上最大的特點(diǎn)是拓?fù)湟鸬母哳l(高壓)強(qiáng)電流與控制級(jí)的弱電信號(hào)交織在一起,首先要保證強(qiáng)電流的存在不干擾電源內(nèi)部的控制信號(hào),其次要盡量減少對(duì)外部的干擾(EMC)。一句話:要運(yùn)行最穩(wěn)定、波形
    的頭像 發(fā)表于 10-28 14:06 ?1839次閱讀
    開關(guān)電源布線 一<b class='flag-5'>句話</b>:要運(yùn)行最穩(wěn)定、波形最漂亮、電磁兼容性最好

    Pytorch深度學(xué)習(xí)訓(xùn)練的方法

    掌握這 17 種方法,用最省力的方式,加速的 Pytorch 深度學(xué)習(xí)訓(xùn)練。
    的頭像 發(fā)表于 10-28 14:05 ?649次閱讀
    Pytorch<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>訓(xùn)練的方法

    GPU深度學(xué)習(xí)應(yīng)用案例

    GPU在深度學(xué)習(xí)中的應(yīng)用廣泛且重要,以下是一些GPU深度學(xué)習(xí)應(yīng)用案例: 一、圖像識(shí)別 圖像識(shí)別是深度學(xué)習(xí)
    的頭像 發(fā)表于 10-27 11:13 ?1338次閱讀

    激光雷達(dá)技術(shù)的基于深度學(xué)習(xí)的進(jìn)步

    維空間信息。這使得激光雷達(dá)在自動(dòng)駕駛、無人機(jī)、機(jī)器人等領(lǐng)域具有廣泛的應(yīng)用前景。 二、深度學(xué)習(xí)技術(shù)的發(fā)展 深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)分支,它通過
    的頭像 發(fā)表于 10-27 10:57 ?1054次閱讀

    AI大模型與深度學(xué)習(xí)的關(guān)系

    AI大模型與深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進(jìn),相輔相成。以下是對(duì)兩者關(guān)系的介紹: 一、深度學(xué)習(xí)是AI大模型的基礎(chǔ) 技術(shù)支撐 :深度
    的頭像 發(fā)表于 10-23 15:25 ?2874次閱讀

    求助,關(guān)于AIC3254寄存器的問題求解

    不是說AIC3254的寄存器每頁(yè)都只有128個(gè)寄存器的嗎,那么寄存器的最大地址應(yīng)該是127啊,下圖是PPS生成的base_main_Rate44_pps_driver.h文件,里面對(duì)寄存器的配置怎么出現(xiàn)了地址為254和 255的配置啊,這三句話的作用是什么?在哪里能看到相關(guān)的資料?求大神解答
    發(fā)表于 10-23 06:48

    FPGA做深度學(xué)習(xí)能走多遠(yuǎn)?

    。FPGA的優(yōu)勢(shì)就是可編程可配置,邏輯資源多,功耗低,而且賽靈思等都在極力推廣。不知道用FPGA做深度學(xué)習(xí)未來會(huì)怎樣發(fā)展,能走多遠(yuǎn),怎么看。 A:FPGA 在深度
    發(fā)表于 09-27 20:53

    認(rèn)識(shí)貼片電阻嗎,對(duì)他了解多少?

    認(rèn)識(shí)貼片電阻嗎,對(duì)他了解多少?
    的頭像 發(fā)表于 08-27 15:49 ?1209次閱讀
    <b class='flag-5'>你</b><b class='flag-5'>認(rèn)識(shí)</b>貼片電阻嗎,<b class='flag-5'>你</b>對(duì)他了解多少?

    回溯英特爾在跨越半個(gè)世紀(jì)的發(fā)展歷程

    我們以英特爾位風(fēng)云人物的三句名言為線索,回溯英特爾在跨越半個(gè)世紀(jì)的發(fā)展歷程中,如何利用芯片技術(shù)的力量,影響信息時(shí)代,開啟未來之門。
    的頭像 發(fā)表于 08-16 14:58 ?1229次閱讀