一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

“深度學習”雖然深奧,本質(zhì)卻很簡單

ml8z_IV_Technol ? 來源:lq ? 2018-12-27 15:15 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

深度學習”雖然深奧,本質(zhì)卻很簡單。無論是圖像識別還是語義分析,機器的“學習”能力都來源于同一個算法 — 梯度下降法 (Gradient Descent)。要理解這個算法,你所需要的僅僅是高中數(shù)學。在讀完這篇文章后,你看待 AI 的眼光會被永遠改變。

Google 研發(fā)了十年自動駕駛后,終于在本月上線了自動駕駛出租車服務。感謝“深度學習”技術(shù),人工智能近年來在自動駕駛、疾病診斷、機器翻譯等領(lǐng)域取得史無前例的突破,甚至還搞出了些讓人驚艷的“藝術(shù)創(chuàng)作”:

Prisma 把你的照片變成藝術(shù)作品

AI 生成的奧巴馬講話視頻,看得出誰是本尊嗎?

開源軟件 style2paints 能自動給漫畫人物上色

如果不了解其中的原理,你可能會覺得這是黑魔法。

但就像愛情,“深度學習”雖然深奧,本質(zhì)卻很簡單。無論是圖像識別還是語義分析,機器的“學習”能力都來源于同一個算法 — 梯度下降法 (Gradient Descent)。要理解這個算法,你所需要的僅僅是高中數(shù)學。在讀完這篇文章后,你看待 AI 的眼光會被永遠改變。

一個例子

我們從一個具體的例子出發(fā):如何訓練機器學會預測書價。在現(xiàn)實中,書的價格由很多因素決定。但為了讓問題簡單點,我們只考慮書的頁數(shù)這一個因素。

機器學習領(lǐng)域,這樣的問題被稱為“監(jiān)督學習 (Supervised Learning)”。意思是,如果我們想讓機器學會一件事(比如預測書的價格),那就給它看很多例子,讓它學會舉一反三(預測一本從未見過的書多少錢)。其實跟人類的學習方法差不多,對吧?

現(xiàn)在假設(shè)我們收集了 100 本書的價格,作為給機器學習的例子。大致情況如下:

頁數(shù)

書價

o4YBAFwkfCaAP7liAAAQLSxmP18251.png

接下來我們要做兩件事:

告訴機器該學習什么;

等機器學習。

告訴機器該學什么

為了讓機器聽懂問題,我們不能說普通話,得用數(shù)學語言向它描述問題,這就是所謂的“建?!?。為了讓接下來的分析更直觀,我們把收集回來的例子畫在數(shù)軸上:

o4YBAFwkfMaAY266AAASHCS_G8Y882.png

我們希望機器通過這些樣本,學會舉一反三,當看到一本從未見過的書時,也能預測價格。比如說,預測一本480頁的書多少錢:

o4YBAFwkfMeATL0XAABC34TWcrY519.png

480頁的書多少錢?

觀察圖表,我們能看出頁數(shù)和書價大致上是線性關(guān)系,也就是說,我們可以畫一根貫穿樣本的直線,作為預測模型。

o4YBAFwkfMeAeJDOAABDUGB20Y8227.png

如果我們把頁數(shù)看作 X 軸,書價看作 Y 軸,這根直線就可以表示為:

o4YBAFwkfMiAM9E5AAALY9z1uqQ711.png

w 決定直線的傾斜程度,b 決定這根直線和 Y 軸相交的位置。問題是,看起來有很多條線都是不錯的選擇,該選哪條?換句話說 w 和 b 該等于多少呢?

o4YBAFwkfMiAeBU0AABKRS4eIkI634.gif

每根直線都是一個候選的模型,該選哪個?

顯然,我們希望找到一根直線,它所預測的書價,跟已知樣本的誤差最小。換句話說,我們希望下圖中的所有紅線,平均來說越短越好。

o4YBAFwkfMiAdDaiAABXcfoKx5E227.png

紅線的長度,就是模型(藍色虛線)預測的書價,和樣本書價(藍點)之間的誤差。

紅線的長度等于預測書價和樣本書價的差。以第一個樣本為例,55頁的書,價格69元,所以第一根紅線的長度等于:

o4YBAFwkfMiAeH1XAAAJBdcuM2s627.png

因為絕對值不便于后面的數(shù)學推導,我們加個平方,一樣能衡量紅線的長度。

o4YBAFwkfMiALrn0AAALgqAxqQc669.png

因為我們的預測模型是:

o4YBAFwkfMmAAuddAAALY9z1uqQ361.png

所以

o4YBAFwkfMmAOJerAAAXE_bRWDs308.png

這個樣本是一本 55 頁,69 元的書。

算式開始變得越來越長了,但記住,這都是初中數(shù)學而已!前面提到,我們希望所有紅線平均來說越短越好,假設(shè)我們有 100 個樣本,用數(shù)學來表達就是:

o4YBAFwkfMmAZJpEAAAb0NTHMEg716.png

至此,我們把“預測書價”這個問題翻譯成數(shù)學語言:“找出 w 和 b 的值,使得以上算式的值最小?!眻猿肿?,第一步馬上結(jié)束了!

我們現(xiàn)在有 2 個未知數(shù):w 和 b。為了讓問題簡單一點,我們假設(shè) b 的最佳答案是 0 好了,現(xiàn)在,我們只需要關(guān)注 w 這一個未知數(shù):

o4YBAFwkfMmAdmv9AAAY_aKTKNk025.png

把括號打開:

o4YBAFwkfMqAQGfGAAAZabJMEh4544.png

在機器學習領(lǐng)域,這個方程被稱為“代價 (cost) 函數(shù)”,用于衡量模型的預測值和實際情況的誤差。我們把括號全打開:

o4YBAFwkfMqAclViAAAT6XVpPJo329.png

不用在意方程中的數(shù)字,都是我瞎掰的。

至此,我們把“預測書價”這個問題翻譯成數(shù)學語言:“w 等于多少時,代價函數(shù)最???”第一步完成!到目前為止,我們只用上了初中數(shù)學。

機器是怎么學習的

代價函數(shù)是個一元二次方程,畫成圖表的話,大概會是這樣:

不用在意坐標軸上的具體數(shù)字,都是我瞎掰的。

前面講到,機器要找到一個 w 值,把代價降到最低:

機器采取的策略很簡單,先瞎猜一個答案(比如說 w 等于 20 ,下圖紅點),雖然對應的代價很高,但沒關(guān)系,機器會用“梯度下降法”不斷改進猜測。

如果你微積分學得很好,此時可能會問:求出導數(shù)函數(shù)為 0 的解不就完事了嗎?在實際問題中,模型往往包含上百萬個參數(shù),它們之間也并非簡單的線性關(guān)系。針對它們求解,在算力上是不現(xiàn)實的。

現(xiàn)在,我們得用上高中數(shù)學的求導函數(shù)了。針對這個瞎猜的點求導,導數(shù)值會告訴機器它猜得怎么樣,小了還是大了。

如果你不記得導數(shù)是什么,那就理解為我們要找到一根直線,它和這條曲線只在這一個點上擦肩而過,此前以后,都無交集(就像你和大部分朋友的關(guān)系一樣)。所謂的導數(shù)就是這根線的斜率。

我們可以看得出,在代價函數(shù)的最小值處(即曲線的底部)導數(shù)等于 0。如果機器猜測的點,導數(shù)大于 0,說明猜太大了,下次得猜小一點,反之亦然。根據(jù)導數(shù)給出的反饋,機器不斷優(yōu)化對 w 的猜測。因為機器一開始預測的點導數(shù)大于 0 ,所以接下來機器會猜測一個小一點的數(shù):

機器接著對新猜測的點求導,導數(shù)不等于 0 ,說明還沒到達曲線底部。

那就接著猜!機器孜孜不倦地循環(huán)著“求導 - 改進猜測 - 求導 - 改進猜測”的自我優(yōu)化邏輯 —— 沒錯,這就是機器的“學習”方式。順便說一句,看看下圖你就明白它為什么叫做“梯度下降法”了。

終于,皇天不負有心機,機器猜到了最佳答案:

就這樣,頭腦簡單一根筋的機器靠著“梯度下降”這一招鮮找到了最佳的 w 值,把代價函數(shù)降到最低值,找到了最接近現(xiàn)實的完美擬合點。

總結(jié)一下,我們剛剛談論了三件事:

通過觀察數(shù)據(jù),我們發(fā)現(xiàn)頁數(shù)與書價是線性關(guān)系——選定模型;

于是我們設(shè)計出代價函數(shù),用來衡量模型的預測書價和已知樣本之間的差距——告訴計算機該學習什么;

機器用“梯度下降法”,找到了把代價函數(shù)降到最低的參數(shù) w ——機器的學習方法。

機器“深度學習”的基本原理就是這么簡單?,F(xiàn)在,我想請你思考一個問題:機器通過這種方法學到的“知識”是什么?

現(xiàn)實問題中的深度學習

為了讓數(shù)學推演簡單點,我用了一個極度簡化的例子?,F(xiàn)實中的問題可沒那么簡單,主要的差別在于:

現(xiàn)實問題中,數(shù)據(jù)的維度非常多。

今天在預測書價時,我們只考慮了頁數(shù)這一個維度,在機器學習領(lǐng)域,這叫做一個“特征 (feature)”。

但假設(shè)我們要訓練機器識別貓狗。一張 200 * 200 的圖片就有 4 萬個像素,每個像素又由 RGB 三個數(shù)值來決定顏色,所以一張圖片就有 12 萬個特征。換句話說,這個數(shù)據(jù)有 12 萬個維度,這可比頁數(shù)這一個維度復雜多了。好在,無論有多少個維度,數(shù)學邏輯是不變的。

現(xiàn)實問題中,數(shù)據(jù)之間不是線性關(guān)系。

在今天的例子中,頁數(shù)和書價之間是線性關(guān)系。但你可以想象得到,貓照片的 4 萬個像素和“貓”這個概念之間,可不會是簡單的線性關(guān)系。事實上兩者之間的關(guān)系是如此復雜,只有用多層神經(jīng)網(wǎng)絡的上百萬個參數(shù)(上百萬個不同的 w:w1, w2, ..., w1000000)才足以表達。所謂“深度”學習指的就是這種多層網(wǎng)絡的結(jié)構(gòu)。

說到這里,我們可以回答前面的問題了:機器所學到的“知識”到底是什么?

就是這些 w。

在今天的例子中,機器找到了正確的 w 值,所以當我們輸入一本書的頁數(shù)時,它能預測書價。同樣的,如果機器找到一百萬個正確的 w 值,你給它看一張照片,它就能告訴你這是貓還是狗。

正因為現(xiàn)實問題如此復雜,為了提高機器學習的速度和效果,在實際的開發(fā)中,大家用的都是梯度下降的各種強化版本,但原理都是一樣的。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    88

    文章

    35166

    瀏覽量

    280099
  • 人工智能
    +關(guān)注

    關(guān)注

    1807

    文章

    49029

    瀏覽量

    249642
  • 深度學習
    +關(guān)注

    關(guān)注

    73

    文章

    5561

    瀏覽量

    122805

原文標題:用高中數(shù)學理解 AI “深度學習”的基本原理

文章出處:【微信號:IV_Technology,微信公眾號:智車科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    Nanopi深度學習之路(1)深度學習框架分析

    設(shè)備”,沒錯,雖然Nanopi迷你,但確實能夠運行深度學習算法。但試用機會少的可憐,只有5個,難道一定要對申請志在必得嗎?NO!NO!NO!深度學習
    發(fā)表于 06-04 22:32

    如何在深奧中更快地學習PSoC?

    你好,我是PSoC的新手,我想知道如何在深奧中更快地學習PSoC?我想學習PSoC5LP。謝謝你
    發(fā)表于 10-24 10:53

    什么是深度學習?使用FPGA進行深度學習的好處?

    準確的模型。有了上述機制,現(xiàn)在可以通過讓神經(jīng)網(wǎng)絡模型學習各種問題來自動解決問題,創(chuàng)建高精度模型,并對新數(shù)據(jù)進行推理。然而,由于單個神經(jīng)網(wǎng)絡只能解決簡單的問題,人們嘗試通過構(gòu)建深度神經(jīng)網(wǎng)絡 (DNN
    發(fā)表于 02-17 16:56

    物聯(lián)網(wǎng)的本質(zhì)深度信息化

    物聯(lián)網(wǎng)的本質(zhì)深度信息化      筆者認為物聯(lián)網(wǎng)的本質(zhì)是國民經(jīng)濟和社會的深度信息化。筆者從物聯(lián)網(wǎng)概念的演進歷程探討其是如何一步步演進到
    發(fā)表于 04-22 09:56 ?2333次閱讀

    《別怕!WEBENCH其實很簡單》,EEWORLD獨家原創(chuàng)

    《別怕!WEBENCH其實很簡單》,EEWORLD獨家原創(chuàng)
    發(fā)表于 09-08 15:32 ?14次下載
    《別怕!WEBENCH其實<b class='flag-5'>很簡單</b>》,EEWORLD獨家原創(chuàng)

    深度學習應用入門

    開發(fā)工程師的視角,以盡量容易讓大家理解的方式一起探討下深度學習的原理,盡管,受限于我個人的技術(shù)水平和掌握程度,未必完全準確。 1. 人的智能和神經(jīng)元 人類智能最重要的部分是大腦,大腦雖然復雜,它的組成單元卻是相對
    發(fā)表于 09-30 14:35 ?2次下載
    <b class='flag-5'>深度</b><b class='flag-5'>學習</b>應用入門

    深度學習和普通機器學習的區(qū)別

    本質(zhì)上,深度學習提供了一套技術(shù)和算法,這些技術(shù)和算法可以幫助我們對深層神經(jīng)網(wǎng)絡結(jié)構(gòu)進行參數(shù)化——人工神經(jīng)網(wǎng)絡中有很多隱含層數(shù)和參數(shù)。深度學習
    的頭像 發(fā)表于 06-08 14:44 ?4731次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學習</b>和普通機器<b class='flag-5'>學習</b>的區(qū)別

    深度學習和機器學習的六個本質(zhì)區(qū)別你知道幾個?

    深度學習和機器學習已經(jīng)變得無處不在,那它們之間到底有什么區(qū)別呢?本文我們?yōu)榇蠹铱偨Y(jié)了深度學習VS機器學習
    的頭像 發(fā)表于 11-30 11:17 ?1.6w次閱讀

    深度學習:搜索和推薦中的深度匹配問題

    深度匹配問題,非常solid的綜述,針對里面的一些方法,尤其是feature-based的深度學習方法增加了近期一些相關(guān)paper。推薦系統(tǒng)和搜索應該是機器學習乃至
    的頭像 發(fā)表于 11-05 09:47 ?4442次閱讀

    電機軸維修原來這么很簡單

    電機軸維修原來這么很簡單
    發(fā)表于 02-28 16:17 ?15次下載

    深度學習并非“簡單的統(tǒng)計”

    與此同時,Boaz Barak 通過展示擬合統(tǒng)計模型和學習數(shù)學這兩個不同的場景案例,探討其與深度學習的匹配性;他認為,雖然深度
    的頭像 發(fā)表于 08-09 10:01 ?1424次閱讀

    什么是深度學習算法?深度學習算法的應用

    。 在深度學習中,使用了一些快速的算法,比如卷積神經(jīng)網(wǎng)絡以及深度神經(jīng)網(wǎng)絡,這些算法在大量數(shù)據(jù)處理和圖像識別上面有著非常重要的作用。 深度學習
    的頭像 發(fā)表于 08-17 16:03 ?2656次閱讀

    機器學習深度學習的區(qū)別

    機器學習深度學習的區(qū)別 隨著人工智能技術(shù)的不斷發(fā)展,機器學習深度學習已經(jīng)成為大家熟知的兩個術(shù)
    的頭像 發(fā)表于 08-17 16:11 ?4895次閱讀

    復位電路很簡單,但卻有很多門道

    復位電路很簡單,但卻有很多門道
    的頭像 發(fā)表于 12-07 16:34 ?1118次閱讀
    復位電路<b class='flag-5'>很簡單</b>,但卻有很多門道

    人工智能、機器學習深度學習是什么

    在科技日新月異的今天,人工智能(Artificial Intelligence, AI)、機器學習(Machine Learning, ML)和深度學習(Deep Learning, DL)已成為
    的頭像 發(fā)表于 07-03 18:22 ?2688次閱讀