一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

使神經(jīng)網(wǎng)絡(luò)在智能手機(jī)上實(shí)時(shí)運(yùn)行的技術(shù)

電子工程師 ? 來(lái)源:阿里云云棲社區(qū) ? 2021-03-29 09:14 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

計(jì)算機(jī)具有高儲(chǔ)量的硬盤(pán)和強(qiáng)大的CPUGPU。但是智能手機(jī)卻沒(méi)有,為了彌補(bǔ)這個(gè)缺陷,我們需要技巧來(lái)讓智能手機(jī)高效地運(yùn)行深度學(xué)習(xí)應(yīng)用程序。

介紹

深度學(xué)習(xí)是一個(gè)令人難以置信的靈活且強(qiáng)大的技術(shù),但運(yùn)行的神經(jīng)網(wǎng)絡(luò)可以在計(jì)算方面需要非常大的電力,且對(duì)磁盤(pán)空間也有要求。這通常不是云空間能夠解決的問(wèn)題,一般都需要大硬盤(pán)服務(wù)器上運(yùn)行驅(qū)動(dòng)器和多個(gè)GPU模塊。

不幸的是,在移動(dòng)設(shè)備上運(yùn)行神經(jīng)網(wǎng)絡(luò)并不容易。事實(shí)上,即使智能手機(jī)變得越來(lái)越強(qiáng)大,它們?nèi)匀痪哂杏邢薜挠?jì)算能力、電池壽命和可用磁盤(pán)空間,尤其是對(duì)于我們希望保持盡可能輕的應(yīng)用程序。這樣做可以實(shí)現(xiàn)更快的下載速度、更小的更新時(shí)間和更長(zhǎng)的電池使用時(shí)間,這些都是用戶所欣賞的。

為了執(zhí)行圖像分類、人像模式攝影、文本預(yù)測(cè)以及其他幾十項(xiàng)任務(wù),智能手機(jī)需要使用技巧來(lái)快速,準(zhǔn)確地運(yùn)行神經(jīng)網(wǎng)絡(luò),而無(wú)需使用太多的磁盤(pán)空間。

在這篇文章中,我們將看到一些最強(qiáng)大的技術(shù),使神經(jīng)網(wǎng)絡(luò)能夠在手機(jī)上實(shí)時(shí)運(yùn)行。

使神經(jīng)網(wǎng)絡(luò)變得更小更快的技術(shù)

基本上,我們對(duì)三個(gè)指標(biāo)感興趣:模型的準(zhǔn)確性、速度以及它在手機(jī)上占用的空間量。由于沒(méi)有免費(fèi)午餐這樣的好事,所以我們必須做出妥協(xié)。

對(duì)于大多數(shù)技術(shù),我們會(huì)密切關(guān)注我們的指標(biāo)并尋找我們稱之為飽和點(diǎn)的東西。這是一個(gè)指標(biāo)的收益停止而其他指標(biāo)損失的時(shí)刻。通過(guò)在飽和點(diǎn)之前保持優(yōu)化值,我們可以獲得最佳值。

使神經(jīng)網(wǎng)絡(luò)在智能手機(jī)上實(shí)時(shí)運(yùn)行的技術(shù)

在這個(gè)例子中,我們可以在不增加錯(cuò)誤的情況下顯著減少昂貴的操作次數(shù)。但是,在飽和點(diǎn)附近,錯(cuò)誤變得太高而無(wú)法接受。

1. 避免完全連接的層

完全連接的層是神經(jīng)網(wǎng)絡(luò)最常見(jiàn)的組成部分之一,它們?cè)?jīng)創(chuàng)造奇跡。然而,由于每個(gè)神經(jīng)元都連接到前一層的所有神經(jīng)元,因此它們需要存儲(chǔ)和更新眾多參數(shù)。這對(duì)速度和磁盤(pán)空間是不利的。

卷積層是利用輸入中的局部一致性(通常是圖像)的層。每個(gè)神經(jīng)元不再連接到前一層的所有神經(jīng)元。這有助于在保持高精度的同時(shí)減少連接/重量的數(shù)量。

使神經(jīng)網(wǎng)絡(luò)在智能手機(jī)上實(shí)時(shí)運(yùn)行的技術(shù)

完全連接層中的連接/權(quán)重比卷積層中多得多。

使用很少或沒(méi)有完全連接的層可以減少模型的大小,同時(shí)保持高精度。這可以提高速度和磁盤(pán)使用率。

在上面的配置中,具有1024個(gè)輸入和512個(gè)輸出的完全連接層,這個(gè)完全連接層大約有500k個(gè)參數(shù)。如果是具有相同特征和32個(gè)卷積層特征映射,那么它將只具有50K參數(shù),這是一個(gè)10倍的改進(jìn)!

2. 減少通道數(shù)量和內(nèi)核大小

這一步代表了模型復(fù)雜性和速度之間的一個(gè)非常直接的折衷。卷積層中有許多通道允許網(wǎng)絡(luò)提取相關(guān)信息,但需付出代價(jià)。刪除一些這樣的功能是節(jié)省空間并使模型變得更快的簡(jiǎn)單方法。

我們可以用卷積運(yùn)算的接受域來(lái)做同樣的事情。通過(guò)減小內(nèi)核大小,卷積對(duì)本地模式的了解較少,但涉及的參數(shù)較少。

使神經(jīng)網(wǎng)絡(luò)在智能手機(jī)上實(shí)時(shí)運(yùn)行的技術(shù)

較小的接受區(qū)域/內(nèi)核大小計(jì)算起來(lái)更便宜,但傳達(dá)的信息較少。

在這兩種情況下,通過(guò)查找飽和點(diǎn)來(lái)選擇地圖/內(nèi)核大小的數(shù)量,以便精度不會(huì)降低太多。

3. 優(yōu)化縮減采樣(Optimizing the downsampling)

對(duì)于固定數(shù)量的層和固定數(shù)量的池操作,神經(jīng)網(wǎng)絡(luò)可以表現(xiàn)得非常不同。這來(lái)自于一個(gè)事實(shí),即表示該數(shù)據(jù)以及計(jì)算量的依賴于在池操作完成:

當(dāng)池化操作提早完成時(shí),數(shù)據(jù)的維度會(huì)降低。越小的維度意味著網(wǎng)絡(luò)處理速度越快,但意味著信息量越少,準(zhǔn)確性越差。

當(dāng)聯(lián)網(wǎng)操作在網(wǎng)絡(luò)后期完成時(shí),大部分信息都會(huì)保留下來(lái),從而具有很高的準(zhǔn)確性。然而,這也意味著計(jì)算是在具有許多維度的對(duì)象上進(jìn)行的,并且在計(jì)算上更昂貴。

在整個(gè)神經(jīng)網(wǎng)絡(luò)中均勻分布下采樣作為一個(gè)經(jīng)驗(yàn)有效的架構(gòu),并在準(zhǔn)確性和速度之間提供了一個(gè)很好的平衡。

使神經(jīng)網(wǎng)絡(luò)在智能手機(jī)上實(shí)時(shí)運(yùn)行的技術(shù)

早期的池化速度很快,晚期的池化是準(zhǔn)確的,均勻間隔的池化是有點(diǎn)兩者。

4. 修剪重量(Pruning the weights)

在訓(xùn)練完成的神經(jīng)網(wǎng)絡(luò)中,一些權(quán)重對(duì)神經(jīng)元的激活起著強(qiáng)烈作用,而另一些權(quán)重幾乎不影響結(jié)果。盡管如此,我們?nèi)匀粚?duì)這些弱權(quán)重做一些計(jì)算。

修剪是完全去除最小量級(jí)連接的過(guò)程,以便我們可以跳過(guò)計(jì)算。這可能會(huì)降低了準(zhǔn)確性,但使網(wǎng)絡(luò)更輕、更快。我們需要找到飽和點(diǎn),以便盡可能多地刪除連接,而不會(huì)過(guò)多地?fù)p害準(zhǔn)確性。

使神經(jīng)網(wǎng)絡(luò)在智能手機(jī)上實(shí)時(shí)運(yùn)行的技術(shù)

除去最薄弱的連接以節(jié)省計(jì)算時(shí)間和空間。

5. 量化權(quán)重(Quantizing the weights)

為了將網(wǎng)絡(luò)保存在磁盤(pán)上,我們需要記錄網(wǎng)絡(luò)中每個(gè)單一權(quán)重的值。這意味著為每個(gè)參數(shù)保存一個(gè)浮點(diǎn)數(shù),這代表了磁盤(pán)上占用的大量空間。作為參考,在C中,一個(gè)浮點(diǎn)占用4個(gè)字節(jié),即32個(gè)比特。一個(gè)參數(shù)在數(shù)億的網(wǎng)絡(luò)(例如GoogLe-Net或VGG-16)可以輕松達(dá)到數(shù)百兆,這在移動(dòng)設(shè)備上是不可接受的。

為了保持網(wǎng)絡(luò)足跡盡可能小,一種方法是通過(guò)量化它們來(lái)降低權(quán)重的分辨率。在這個(gè)過(guò)程中,我們改變了數(shù)字的表示形式,使其不再能夠取得任何價(jià)值,但相當(dāng)受限于一部分?jǐn)?shù)值。這使我們只能存儲(chǔ)一次量化值,然后參考網(wǎng)絡(luò)的權(quán)重。

使神經(jīng)網(wǎng)絡(luò)在智能手機(jī)上實(shí)時(shí)運(yùn)行的技術(shù)

量化權(quán)重存儲(chǔ)鍵而不是浮動(dòng)。

我們將再次通過(guò)查找飽和點(diǎn)來(lái)確定要使用多少個(gè)值。更多的值意味著更高的準(zhǔn)確性,但也是更大的儲(chǔ)存空間。例如,通過(guò)使用256個(gè)量化值,每個(gè)權(quán)重可以僅使用1個(gè)字節(jié) 即 8個(gè)比特來(lái)引用。與之前(32位)相比,我們已將大小除以4!

6. 編碼模型的表示

我們已經(jīng)處理了關(guān)于權(quán)重的一些事情,但是我們可以進(jìn)一步改進(jìn)網(wǎng)絡(luò)!這個(gè)技巧依賴于權(quán)重不均勻分布的事實(shí)。一旦量化,我們就沒(méi)有相同數(shù)量的權(quán)值來(lái)承載每個(gè)量化值。這意味著在我們的模型表示中,一些引用會(huì)比其他引用更頻繁地出現(xiàn),我們可以利用它!

霍夫曼編碼是這個(gè)問(wèn)題的完美解決方案。它通過(guò)將最小占用空間的密鑰歸屬到最常用的值以及最小占用空間的值來(lái)實(shí)現(xiàn)。這有助于減小設(shè)備上模型的誤差,最好的結(jié)果是精度沒(méi)有損失。

使神經(jīng)網(wǎng)絡(luò)在智能手機(jī)上實(shí)時(shí)運(yùn)行的技術(shù)

最頻繁的符號(hào)僅使用1 位的空間,而最不頻繁的使用3 位。這是由后者很少出現(xiàn)在表示中的事實(shí)所平衡的。

這個(gè)簡(jiǎn)單的技巧使我們能夠進(jìn)一步縮小神經(jīng)網(wǎng)絡(luò)占用的空間,通常約為30%。

注意:量化和編碼對(duì)于網(wǎng)絡(luò)中的每一層都是不同的,從而提供更大的靈活性

7. 糾正準(zhǔn)確度損失(Correctiong the accuracy loss)

使用我們的技巧,我們的神經(jīng)網(wǎng)絡(luò)已經(jīng)變得非常粗糙了。我們刪除了弱連接(修剪),甚至改變了一些權(quán)重(量化)。雖然這使得網(wǎng)絡(luò)超級(jí)輕巧,而且速度非???,但其準(zhǔn)確度并非如此。

為了解決這個(gè)問(wèn)題,我們需要在每一步迭代地重新訓(xùn)練網(wǎng)絡(luò)。這只是意味著在修剪或量化權(quán)重后,我們需要再次訓(xùn)練網(wǎng)絡(luò),以便它能夠適應(yīng)變化并重復(fù)這個(gè)過(guò)程,直到權(quán)重停止變化太多。

結(jié)論

雖然智能手機(jī)不具備老式桌面計(jì)算機(jī)的磁盤(pán)空間、計(jì)算能力或電池壽命,但它們?nèi)匀皇巧疃葘W(xué)習(xí)應(yīng)用程序非常好的目標(biāo)。借助少數(shù)技巧,并以幾個(gè)百分點(diǎn)的精度為代價(jià),現(xiàn)在可以在這些多功能手持設(shè)備上運(yùn)行強(qiáng)大的神經(jīng)網(wǎng)絡(luò)。這為數(shù)以千計(jì)的激動(dòng)人心的應(yīng)用打開(kāi)了大門(mén)。

責(zé)任編輯:lq6

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 智能手機(jī)
    +關(guān)注

    關(guān)注

    66

    文章

    18618

    瀏覽量

    183695
  • cpu
    cpu
    +關(guān)注

    關(guān)注

    68

    文章

    11073

    瀏覽量

    216835
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    4937

    瀏覽量

    131139
  • 計(jì)算機(jī)
    +關(guān)注

    關(guān)注

    19

    文章

    7655

    瀏覽量

    90663
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的比較

    BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)多個(gè)方面存在顯著差異,以下是對(duì)兩者的比較: 一、結(jié)構(gòu)特點(diǎn) BP神經(jīng)網(wǎng)絡(luò) : BP神經(jīng)網(wǎng)絡(luò)是一種多層的前饋
    的頭像 發(fā)表于 02-12 15:53 ?644次閱讀

    人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法

    在上一篇文章中,我們介紹了傳統(tǒng)機(jī)器學(xué)習(xí)的基礎(chǔ)知識(shí)和多種算法。本文中,我們會(huì)介紹人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法,供各位老師選擇。 01 人工神經(jīng)網(wǎng)絡(luò) ? 人工
    的頭像 發(fā)表于 01-09 10:24 ?1174次閱讀
    人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的原理和多種<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>架構(gòu)方法

    卷積神經(jīng)網(wǎng)絡(luò)自然語(yǔ)言處理中的應(yīng)用

    自然語(yǔ)言處理是人工智能領(lǐng)域的一個(gè)重要分支,它致力于使計(jì)算機(jī)能夠理解、解釋和生成人類語(yǔ)言。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,卷積神經(jīng)網(wǎng)絡(luò)(CNNs)作為一種強(qiáng)大的模型,
    的頭像 發(fā)表于 11-15 14:58 ?785次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的比較

    深度學(xué)習(xí)領(lǐng)域,神經(jīng)網(wǎng)絡(luò)模型被廣泛應(yīng)用于各種任務(wù),如圖像識(shí)別、自然語(yǔ)言處理和游戲智能等。其中,卷積神經(jīng)網(wǎng)絡(luò)(CNNs)和傳統(tǒng)神經(jīng)網(wǎng)絡(luò)是兩種常
    的頭像 發(fā)表于 11-15 14:53 ?1838次閱讀

    RNN模型與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的區(qū)別

    神經(jīng)網(wǎng)絡(luò)是機(jī)器學(xué)習(xí)領(lǐng)域中的一種強(qiáng)大工具,它們能夠模擬人腦處理信息的方式。隨著技術(shù)的發(fā)展,神經(jīng)網(wǎng)絡(luò)的類型也不斷增加,其中循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN
    的頭像 發(fā)表于 11-15 09:42 ?1114次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)語(yǔ)音識(shí)別中的應(yīng)用實(shí)例

    語(yǔ)音識(shí)別技術(shù)是人工智能領(lǐng)域的一個(gè)重要分支,它使計(jì)算機(jī)能夠理解和處理人類語(yǔ)言。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,特別是長(zhǎng)短期記憶(LSTM)神經(jīng)網(wǎng)絡(luò)的引
    的頭像 發(fā)表于 11-13 10:03 ?1829次閱讀

    探索智能手機(jī)上的生成式AI

    今年是移動(dòng)技術(shù)發(fā)展史上的重要一年,AI智能手機(jī)的出現(xiàn)讓我們對(duì)未來(lái)充滿了期待。每年,我都會(huì)準(zhǔn)時(shí)排隊(duì)購(gòu)買(mǎi)新發(fā)布的高端智能手機(jī),一方面是因?yàn)槲蚁矚g電子產(chǎn)品,另一方面則源于我對(duì)新科技的好奇。朋友們開(kāi)玩笑
    的頭像 發(fā)表于 11-11 16:36 ?986次閱讀

    Moku人工神經(jīng)網(wǎng)絡(luò)101

    Moku3.3版更新Moku:Pro平臺(tái)新增了全新的儀器功能【神經(jīng)網(wǎng)絡(luò)】,使用戶能夠Moku設(shè)備上部署實(shí)時(shí)機(jī)器學(xué)習(xí)算法,進(jìn)行快速、靈活的信號(hào)分析、去噪、傳感器調(diào)節(jié)校準(zhǔn)、閉環(huán)反饋等應(yīng)
    的頭像 發(fā)表于 11-01 08:06 ?647次閱讀
    Moku人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>101

    關(guān)于卷積神經(jīng)網(wǎng)絡(luò),這些概念你厘清了么~

    隨著人工智能(AI)技術(shù)的快速發(fā)展,AI可以越來(lái)越多地支持以前無(wú)法實(shí)現(xiàn)或者難以實(shí)現(xiàn)的應(yīng)用。本文基于此解釋了 卷積神經(jīng)網(wǎng)絡(luò) (CNN)及其對(duì)人工智能和機(jī)器學(xué)習(xí)的意義。CNN是一種能夠從
    發(fā)表于 10-24 13:56

    【飛凌嵌入式OK3576-C開(kāi)發(fā)板體驗(yàn)】RKNN神經(jīng)網(wǎng)絡(luò)-車(chē)牌識(shí)別

    LPRNet基于深層神經(jīng)網(wǎng)絡(luò)設(shè)計(jì),通過(guò)輕量級(jí)的卷積神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)車(chē)牌識(shí)別。它采用端到端的訓(xùn)練方式,不依賴字符分割,能夠直接處理整張車(chē)牌圖像,并輸出最終的字符序列。這種設(shè)計(jì)提高了識(shí)別的實(shí)時(shí)性和準(zhǔn)確性
    發(fā)表于 10-10 16:40

    FPGA深度神經(jīng)網(wǎng)絡(luò)中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Network, DNN)作為其核心算法之一,圖像識(shí)別、語(yǔ)音識(shí)別、自然語(yǔ)言處理等領(lǐng)域取得了顯著成果。然而,傳統(tǒng)的深度神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-24 10:42 ?1189次閱讀

    防爆智能手機(jī)如何助力電氣行業(yè)保駕護(hù)航?

    電氣行業(yè)的智能化轉(zhuǎn)型浪潮中,防爆智能手機(jī)以其強(qiáng)大的數(shù)據(jù)處理能力、實(shí)時(shí)通訊功能及高度集成的安全特性,正成為保障電力網(wǎng)絡(luò)穩(wěn)定
    的頭像 發(fā)表于 07-23 17:15 ?641次閱讀
    防爆<b class='flag-5'>智能手機(jī)</b>如何助力電氣行業(yè)保駕護(hù)航?

    OLED技術(shù)智能手機(jī)領(lǐng)域持續(xù)高漲

    7月18日最新行業(yè)資訊,權(quán)威市場(chǎng)調(diào)研機(jī)構(gòu)DSCC在其最新發(fā)布的《高級(jí)智能手機(jī)顯示屏出貨量與技術(shù)趨勢(shì)報(bào)告》中揭示,OLED智能手機(jī)市場(chǎng)2024年首季展現(xiàn)出了強(qiáng)勁的復(fù)蘇態(tài)勢(shì),出貨量與營(yíng)收
    的頭像 發(fā)表于 07-18 16:01 ?1166次閱讀

    神經(jīng)網(wǎng)絡(luò)專用硬件實(shí)現(xiàn)的方法和技術(shù)

    神經(jīng)網(wǎng)絡(luò)專用硬件實(shí)現(xiàn)是人工智能領(lǐng)域的一個(gè)重要研究方向,旨在通過(guò)設(shè)計(jì)專門(mén)的硬件來(lái)加速神經(jīng)網(wǎng)絡(luò)的訓(xùn)練和推理過(guò)程,提高計(jì)算效率和能效比。以下將詳細(xì)介紹神經(jīng)網(wǎng)絡(luò)專用硬件實(shí)現(xiàn)的方法和
    的頭像 發(fā)表于 07-15 10:47 ?2305次閱讀

    不同類型神經(jīng)網(wǎng)絡(luò)回歸任務(wù)中的應(yīng)用

    神經(jīng)網(wǎng)絡(luò)是一種強(qiáng)大的機(jī)器學(xué)習(xí)模型,可以用于各種任務(wù),包括回歸。本文中,我們將討論不同類型的神經(jīng)網(wǎng)絡(luò),以及它們回歸任務(wù)中的應(yīng)用。 基本的神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-11 10:27 ?2039次閱讀