一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

邊緣AI的模型壓縮技術(shù)

星星科技指導(dǎo)員 ? 來源:嵌入式計(jì)算設(shè)計(jì) ? 作者:Rakesh R. Nakod ? 2022-10-19 14:22 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

深度學(xué)習(xí)在模型及其數(shù)據(jù)集方面正在以驚人的速度增長(zhǎng)。在應(yīng)用方面,深度學(xué)習(xí)市場(chǎng)以圖像識(shí)別為主,其次是光學(xué)字符識(shí)別,以及面部和物體識(shí)別。根據(jù) Allied 的市場(chǎng)調(diào)查,2020 年全球深度學(xué)習(xí)市場(chǎng)規(guī)模為 68.5 億美元,預(yù)計(jì)到 2030 年將達(dá)到 1799.6 億美元,從 2021 年到 2030 年的復(fù)合年增長(zhǎng)率為 39.2%。

在某個(gè)時(shí)間點(diǎn),人們認(rèn)為大型和復(fù)雜的模型表現(xiàn)更好,但現(xiàn)在它幾乎是一個(gè)神話。隨著邊緣AI的發(fā)展,越來越多的技術(shù)將大型復(fù)雜模型轉(zhuǎn)換為可以在邊緣上運(yùn)行的簡(jiǎn)單模型,所有這些技術(shù)結(jié)合在一起執(zhí)行模型壓縮。

什么是模型壓縮?

模型壓縮是在具有低計(jì)算能力和內(nèi)存的邊緣設(shè)備上部署SOTA(最先進(jìn)的)深度學(xué)習(xí)模型的過程,而不會(huì)影響模型在準(zhǔn)確性,精度,召回性等方面的性能。模型壓縮廣泛地減少了模型中的兩件事,即大小和延遲。大小減小側(cè)重于通過減少模型參數(shù)使模型更簡(jiǎn)單,從而減少執(zhí)行中的 RAM 要求和內(nèi)存中的存儲(chǔ)要求。減少延遲是指減少模型進(jìn)行預(yù)測(cè)或推斷結(jié)果所花費(fèi)的時(shí)間。模型大小和延遲通常是一起的,大多數(shù)技術(shù)都會(huì)減少兩者。

流行的模型壓縮技術(shù)

修剪:

修剪是模型壓縮的最流行的技術(shù),它通過刪除冗余和無關(guān)緊要的參數(shù)來工作。神經(jīng)網(wǎng)絡(luò)中的這些參數(shù)可以是連接器、神經(jīng)元、通道,甚至是層。它很受歡迎,因?yàn)樗瑫r(shí)減小了模型的大小并改善了延遲。

pYYBAGNPl6-AZ2uZAAGw_oTIvEs500.png

修剪

修剪可以在訓(xùn)練模型時(shí)或在訓(xùn)練后完成。有不同類型的修剪技術(shù),包括重量/連接修剪,神經(jīng)元修剪,過濾器修剪和層修剪。

量化:

當(dāng)我們?cè)谛藜糁幸瞥窠?jīng)元,連接,過濾器,層等以減少加權(quán)參數(shù)的數(shù)量時(shí),權(quán)重的大小在量化過程中減小。在此過程中,較大集中的值將映射到較小集中的值。與輸入網(wǎng)絡(luò)相比,輸出網(wǎng)絡(luò)的值范圍較窄,但保留了大部分信息。

知識(shí)提煉:

在知識(shí)提煉過程中,一個(gè)復(fù)雜而大型的模型在一個(gè)非常大的數(shù)據(jù)集上被訓(xùn)練。微調(diào)大型模型后,它可以很好地處理看不見的數(shù)據(jù)。一旦實(shí)現(xiàn),這些知識(shí)就會(huì)轉(zhuǎn)移到較小的神經(jīng)網(wǎng)絡(luò)或模型中。同時(shí)使用教師網(wǎng)絡(luò)(較大模型)和學(xué)生網(wǎng)絡(luò)(較小模型)。這里存在兩個(gè)方面,知識(shí)提煉,其中我們不調(diào)整教師模型,而在遷移學(xué)習(xí)中,我們使用確切的模型和權(quán)重,在一定程度上改變模型,并針對(duì)相關(guān)任務(wù)進(jìn)行調(diào)整。

poYBAGNPl7aAcED2AAB8DjxHRCw852.png

知識(shí)蒸餾系統(tǒng)

知識(shí)、蒸餾算法和師生架構(gòu)模型是典型知識(shí)蒸餾系統(tǒng)的三個(gè)主要部分,如上圖所示。

低矩陣分解:

矩陣構(gòu)成了大多數(shù)深度神經(jīng)架構(gòu)的大部分。該技術(shù)旨在通過應(yīng)用矩陣或張量分解并將它們變成更小的矩陣來識(shí)別冗余參數(shù)。當(dāng)應(yīng)用于密集 DNN(深度神經(jīng)網(wǎng)絡(luò))時(shí),此技術(shù)可降低 CNN(卷積神經(jīng)網(wǎng)絡(luò))層的存儲(chǔ)要求和因式分解,并縮短推理時(shí)間。具有二維且具有秩 r 的權(quán)重矩陣 A 可以分解為更小的矩陣,如下所示。

poYBAGNPl72AUTPYAABK48-5WA8433.png

低矩陣因式分解

模型準(zhǔn)確性和性能在很大程度上取決于正確的因式分解和秩選擇。低秩因式分解過程中的主要挑戰(zhàn)是更難實(shí)現(xiàn),并且計(jì)算密集型??傮w而言,與全秩矩陣表示相比,密集層矩陣的因式分解可導(dǎo)致更小的模型和更快的性能。

由于邊緣AI,模型壓縮策略變得非常重要。這些方法相互補(bǔ)充,可以在整個(gè)AI管道的各個(gè)階段使用。像張量流和Pytorch這樣的流行框架現(xiàn)在包括修剪和量化等技術(shù)。最終,該領(lǐng)域使用的技術(shù)數(shù)量將會(huì)增加。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 連接器
    +關(guān)注

    關(guān)注

    99

    文章

    15387

    瀏覽量

    140503
  • RAM
    RAM
    +關(guān)注

    關(guān)注

    8

    文章

    1392

    瀏覽量

    117519
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5561

    瀏覽量

    122794
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    Nordic收購 Neuton.AI 關(guān)于產(chǎn)品技術(shù)的分析

    與 Nordic 的 nRF54 系列超低功耗無線 SoC 結(jié)合,使得即使是資源極為有限的設(shè)備也能高效運(yùn)行邊緣 AI。Nordic 目前正在將 Neuton 深度集成到自身開發(fā)生態(tài)中,未來會(huì)提供更多工具、固件
    發(fā)表于 06-28 14:18

    邊緣AI實(shí)現(xiàn)的核心環(huán)節(jié):硬件選擇和模型部署

    邊緣AI的實(shí)現(xiàn)原理是將人工智能算法和模型部署到靠近數(shù)據(jù)源的邊緣設(shè)備上,使這些設(shè)備能夠在本地進(jìn)行數(shù)據(jù)處理、分析和決策,而無需將數(shù)據(jù)傳輸?shù)竭h(yuǎn)程的云端服務(wù)器。
    的頭像 發(fā)表于 06-19 12:19 ?498次閱讀
    <b class='flag-5'>邊緣</b><b class='flag-5'>AI</b>實(shí)現(xiàn)的核心環(huán)節(jié):硬件選擇和<b class='flag-5'>模型</b>部署

    STM32F769是否可以部署邊緣AI?

    STM32F769是否可以部署邊緣AI
    發(fā)表于 06-17 06:44

    邊緣AI的優(yōu)勢(shì)和技術(shù)基石

    在萬物皆可AI(人工智能)的今天,市場(chǎng)上幾乎每家企業(yè)都在宣稱自己的業(yè)務(wù)中有了AI成分。因此,將AI接入極靠近終端客戶的網(wǎng)絡(luò)邊緣也就沒什么懸念了。這里的
    的頭像 發(fā)表于 06-12 10:14 ?562次閱讀
    <b class='flag-5'>邊緣</b><b class='flag-5'>AI</b>的優(yōu)勢(shì)和<b class='flag-5'>技術(shù)</b>基石

    邊緣AI實(shí)現(xiàn)的核心環(huán)節(jié):硬件選擇和模型部署

    電子發(fā)燒友網(wǎng)綜合報(bào)道 邊緣AI的實(shí)現(xiàn)原理是將人工智能算法和模型部署到靠近數(shù)據(jù)源的邊緣設(shè)備上,使這些設(shè)備能夠在本地進(jìn)行數(shù)據(jù)處理、分析和決策,而無需將數(shù)據(jù)傳輸?shù)竭h(yuǎn)程的云端服務(wù)器。
    發(fā)表于 05-26 07:09 ?925次閱讀

    Deepseek海思SD3403邊緣計(jì)算AI產(chǎn)品系統(tǒng)

    海思SD3403邊緣計(jì)算AI框架,提供了一套開放式AI訓(xùn)練產(chǎn)品工具包,解決客戶低成本AI系統(tǒng),針對(duì)差異化AI 應(yīng)用場(chǎng)景,自己采集樣本數(shù)據(jù),進(jìn)
    發(fā)表于 04-28 11:05

    意法半導(dǎo)體邊緣AI套件中提供的全部工具

    意法半導(dǎo)體邊緣AI套件(ST Edge AI Suite)是一套專為邊緣AI開發(fā)設(shè)計(jì)的集成化工具集合,覆蓋從數(shù)據(jù)采集、
    的頭像 發(fā)表于 04-21 17:46 ?689次閱讀

    訓(xùn)練好的ai模型導(dǎo)入cubemx不成功怎么處理?

    訓(xùn)練好的ai模型導(dǎo)入cubemx不成功咋辦,試了好幾個(gè)模型壓縮了也不行,ram占用過大,有無解決方案?
    發(fā)表于 03-11 07:18

    AI模型托管原理

    AI模型托管的核心在于將訓(xùn)練好的AI模型部署在云端或邊緣服務(wù)器上,由第三方平臺(tái)提供模型運(yùn)行、管理
    的頭像 發(fā)表于 02-26 10:31 ?617次閱讀

    AI賦能邊緣網(wǎng)關(guān):開啟智能時(shí)代的新藍(lán)海

    在數(shù)字化轉(zhuǎn)型的浪潮中,AI邊緣計(jì)算的結(jié)合正掀起一場(chǎng)深刻的產(chǎn)業(yè)變革。邊緣網(wǎng)關(guān)作為連接物理世界與數(shù)字世界的橋梁,在AI技術(shù)的加持下,正從簡(jiǎn)單的
    發(fā)表于 02-15 11:41

    研華邊緣AI Box MIC-ATL3S部署Deepseek R1模型

    隨著深度求索(DeepSeek)大模型的發(fā)布引發(fā)行業(yè)熱議,研華科技基于昇騰Atlas平臺(tái)邊緣AI Box MIC-ATL3S正式發(fā)布與Deepseek R1模型的部署流程。該平臺(tái)依托昇
    的頭像 發(fā)表于 02-14 16:08 ?1369次閱讀
    研華<b class='flag-5'>邊緣</b><b class='flag-5'>AI</b> Box MIC-ATL3S部署Deepseek R1<b class='flag-5'>模型</b>

    AI模型部署邊緣設(shè)備的奇妙之旅:目標(biāo)檢測(cè)模型

    并非易事,它涉及到從選擇合適的算法架構(gòu)到針對(duì)特定硬件平臺(tái)進(jìn)行優(yōu)化等一系列復(fù)雜的工作。 接下來,我們將詳細(xì)介紹如何在資源受限的邊緣設(shè)備上成功部署目標(biāo)檢測(cè)模型,探索其背后的原理和技術(shù),并討論解決該領(lǐng)域內(nèi)常見
    發(fā)表于 12-19 14:33

    AI模型部署邊緣設(shè)備的奇妙之旅:如何實(shí)現(xiàn)手寫數(shù)字識(shí)別

    系統(tǒng)的智能化水平,還極大地拓展了其應(yīng)用范圍, 使得嵌入式系統(tǒng)在智能家居、智能交通、智能醫(yī)療等領(lǐng)域有了更深層次的運(yùn)用。AI技術(shù)的嵌入,已經(jīng)成為未來嵌入式系統(tǒng)發(fā)展 的一個(gè)重要趨勢(shì)。踏入邊緣端部署的第一步
    發(fā)表于 12-06 17:20

    AI模型托管原理分析

    AI模型托管是指將訓(xùn)練好的AI模型部署在云端或邊緣服務(wù)器上,由第三方平臺(tái)提供模型運(yùn)行、管理和優(yōu)化
    的頭像 發(fā)表于 11-07 09:33 ?791次閱讀

    云天勵(lì)飛邊緣AI推動(dòng)大模型規(guī)模化應(yīng)用落地

    2024年毫無疑問是大模型應(yīng)用落地元年,面對(duì)靈活多變的任務(wù)和復(fù)雜的場(chǎng)景環(huán)境,用邊緣AI打造低成本、高效能、強(qiáng)落地的大模型應(yīng)用是關(guān)鍵。
    的頭像 發(fā)表于 09-18 14:59 ?663次閱讀