一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

邊緣計(jì)算的未來(lái)是MCU上的深度學(xué)習(xí)

電子設(shè)計(jì) ? 來(lái)源:電子設(shè)計(jì) ? 作者:電子設(shè)計(jì) ? 2020-10-30 06:43 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

就在幾年前,人們普遍認(rèn)為,機(jī)器學(xué)習(xí)(ML)甚至深度學(xué)習(xí)(DL)只能通過(guò)由網(wǎng)關(guān)、邊緣服務(wù)器或數(shù)據(jù)中心執(zhí)行的邊緣訓(xùn)練和推理,在高端硬件上完成。這種想法在當(dāng)時(shí)不無(wú)道理,因?yàn)樵谠贫撕瓦吘壷g分配計(jì)算資源的趨勢(shì)尚處于早期發(fā)展階段。但如今,得益于業(yè)界和學(xué)術(shù)界的艱苦研發(fā)和不懈努力,情況已然發(fā)生了翻天覆地的變化。

處理器不必提供每秒數(shù)萬(wàn)億次操作(TOPS),也能執(zhí)行機(jī)器學(xué)習(xí)(ML)。越來(lái)越多的用例證明,只要使用最新的微控制器(部分帶有嵌入式 ML 加速器),就能在邊緣設(shè)備上開展機(jī)器學(xué)習(xí)。

只需極低的成本和極低的功耗,這些設(shè)備就能出色地完成 ML,僅在絕對(duì)必要時(shí)才連接到云。簡(jiǎn)而言之,內(nèi)置 ML 加速器的微控制器代表著物聯(lián)網(wǎng)發(fā)展的下一階段:在生產(chǎn)數(shù)據(jù)的源頭,例如麥克風(fēng)、攝像頭和監(jiān)控其他環(huán)境條件的傳感器中引入智能計(jì)算,并使物聯(lián)網(wǎng)應(yīng)用受益。

邊緣有多深?

目前普遍認(rèn)為邊緣是物聯(lián)網(wǎng)網(wǎng)絡(luò)的最遠(yuǎn)點(diǎn),但通常指先進(jìn)的網(wǎng)關(guān)或邊緣服務(wù)器。不過(guò),這并不是邊緣的盡頭。真正的盡頭是鄰近用戶的傳感器。所以,合乎邏輯的做法是將盡可能多的分析能力安排在鄰近用戶的位置,而這也正是微處理器所擅長(zhǎng)的。


不同寬度乘數(shù)下的多個(gè) MobileNet V1 模型。寬度乘數(shù)對(duì)參數(shù)的數(shù)量、計(jì)算結(jié)果和精度都有顯著影響。但是,如果只是將寬度乘數(shù)從 1.0 改為 0.75,TOP-1 精度并無(wú)太大變化,參數(shù)的數(shù)量和算力需求卻明顯不同。

可以說(shuō),單板計(jì)算機(jī)也能用于邊緣處理,因?yàn)樗鼈兙哂谐錾男阅?,其集群可媲美一臺(tái)小型超級(jí)計(jì)算機(jī)。但問題是尺寸依然過(guò)大,而且對(duì)于大規(guī)模應(yīng)用所需的成百上千次部署而言,成本過(guò)于高昂。它們還需要連接外部直流電源,在某些情況下可能超出可用范圍;相比之下,MCU 的功耗只有幾毫瓦,并且可以使用紐扣電池或一些太陽(yáng)能電池來(lái)供電。

毫無(wú)意外,用于在邊緣執(zhí)行 ML 的微控制器成為了十分熱門的研發(fā)領(lǐng)域。甚至還有專有名稱– TinyML。TinyML 的目標(biāo)就是允許在資源受限的小型低功耗設(shè)備(尤其是微控制器),而不是在更大的平臺(tái)或云端上執(zhí)行模型推理,甚至最終能實(shí)現(xiàn)模型訓(xùn)練。這就需要縮小神經(jīng)網(wǎng)絡(luò)模型的尺寸,以容納這些設(shè)備中相對(duì)較少的算力、存儲(chǔ)空間和帶寬資源,同時(shí)不會(huì)嚴(yán)重降低功能性和精度。

這些方案對(duì)資源進(jìn)行了優(yōu)化,使設(shè)備可以采集充足的傳感器數(shù)據(jù)并發(fā)揮恰當(dāng)作用,同時(shí)微調(diào)精度并降低資源要求。因此,雖然數(shù)據(jù)可能仍被發(fā)送到云端(或者可能是先發(fā)送到邊緣網(wǎng)關(guān),然后再發(fā)送到云端),但數(shù)量少得多,因?yàn)橄喈?dāng)大一部分的分析已經(jīng)完成。

現(xiàn)實(shí)中,一個(gè)十分常見的 TinyML 用例就是基于攝像頭的對(duì)象檢測(cè)系統(tǒng),盡管能夠捕獲高分辨率圖像,但由于存儲(chǔ)空間有限,只能降低圖像分辨率??墒牵绻麛z像頭內(nèi)置了數(shù)據(jù)分析功能,則只會(huì)捕獲所需的對(duì)象而非整個(gè)場(chǎng)景,而且因?yàn)橄嚓P(guān)的圖像區(qū)域更小,能保留高分辨率圖像。這種功能通常只見于更大型、性能更強(qiáng)大的設(shè)備,但是 TinyML 技術(shù)使得微控制器也能實(shí)現(xiàn)。

小巧卻不簡(jiǎn)單

盡管 TinyML 還只是相對(duì)較新的一種范式,但已經(jīng)表現(xiàn)出了不容小覷的推理能力(即便使用的是相對(duì)溫和的微控制器)和訓(xùn)練(在性能更強(qiáng)大的微控制器上)成效,且精度損耗控制在最低限度。最近的示例包括:語(yǔ)音和面部識(shí)別、語(yǔ)音命令和自然語(yǔ)言處理,甚至同時(shí)運(yùn)行多個(gè)復(fù)雜的視覺算法。

實(shí)際說(shuō)來(lái),這意味著一臺(tái)裝載 500-MHz Arm Cortex-M7 內(nèi)核的微控制器,花費(fèi)不超過(guò) 2 美元,內(nèi)存容量從 28 Kb 到 128 KB 不等,卻能提供強(qiáng)大的性能,使傳感器實(shí)現(xiàn)真正智能。例如,恩智浦的 i.MX RT 跨界 MCU 就使用運(yùn)行 TensorFlow Lite 運(yùn)行時(shí)引擎的小型 ML 模型實(shí)現(xiàn)了此種性能。以基本對(duì)象識(shí)別為例,通常在 200 ms 內(nèi)即可完成,而且精度接近 95%。

即使在這個(gè)價(jià)格和性能水平上,這些微處理器配備了多個(gè)安全功能(包括 AES-128),并支持多個(gè)外部存儲(chǔ)器類型、以太網(wǎng)、USB 和 SPI,同時(shí)還包含或支持多種類型的傳感器以及藍(lán)牙、Wi-Fi、SPDIF 和 I2C 音頻接口。價(jià)格稍高一些的設(shè)備則是通常搭載 1-GHz Arm Cortex-M7、400-MHz Cortex-M4、2 Mbytes RAM 和圖形加速。采用 3.3 VDC 電源供電時(shí),功耗一般遠(yuǎn)低于單板計(jì)算機(jī)。

TOPS 概述

會(huì)使用單一指標(biāo)來(lái)評(píng)判性能的不僅是消費(fèi)者;設(shè)計(jì)者和市場(chǎng)營(yíng)銷部門也一直如此,因?yàn)樽鳛橐豁?xiàng)主要規(guī)格,它可以輕松地區(qū)分設(shè)備。一個(gè)經(jīng)典示例就是 CPU,多年來(lái)人們一直通過(guò)時(shí)鐘速率來(lái)評(píng)判性能;幸運(yùn)的是,現(xiàn)在的設(shè)計(jì)者和消費(fèi)者已不再如此。只用一個(gè)指標(biāo)評(píng)定 CPU 性能就像是按照發(fā)動(dòng)機(jī)的峰值轉(zhuǎn)速來(lái)評(píng)估汽車性能。盡管峰值轉(zhuǎn)速有一定參考意義,但幾乎無(wú)法體現(xiàn)發(fā)動(dòng)機(jī)的強(qiáng)勁或汽車的駕駛性能,這些特性取決于許多其他因素。

遺憾的是,同樣的尷尬也發(fā)生在以每秒數(shù)十億次或上萬(wàn)億次操作來(lái)界定的神經(jīng)網(wǎng)絡(luò)加速器(包括高性能 MPU 或微控制器中的加速器),原因一樣,簡(jiǎn)單的數(shù)字好記。在實(shí)踐中,單獨(dú)的 GOPS 和 TOPS 只是相對(duì)無(wú)意義的指標(biāo),代表的是實(shí)驗(yàn)室而非實(shí)際操作環(huán)境中的一次測(cè)量結(jié)果(毫無(wú)疑問是最好的結(jié)果)。例如,TOPS 沒有考慮內(nèi)存帶寬的限制、所需要的 CPU 開支、預(yù)處理和后處理以及其他因素。如果將所有這些和其他因素都一并考慮在內(nèi),例如在實(shí)際操作中應(yīng)用于特定電路板時(shí),系統(tǒng)級(jí)別的性能或許只能達(dá)到數(shù)據(jù)表上 TOPS 值的 50%或 60%。

所有這些數(shù)字都是硬件中的計(jì)算單元乘以對(duì)應(yīng)的時(shí)鐘速率所得到的數(shù)值,而不是上需要運(yùn)行時(shí)數(shù)據(jù)已經(jīng)就緒的頻率。如果數(shù)據(jù)一直即時(shí)可用,也不存在功耗問題和內(nèi)存限制,并且算法能無(wú)縫映射到硬件,則這種統(tǒng)計(jì)方式更有參考價(jià)值。然而,現(xiàn)實(shí)中并沒有這樣理想的環(huán)境。

當(dāng)應(yīng)用于微控制器中的 ML 加速器時(shí),該指標(biāo)更沒有價(jià)值。這些小型設(shè)備的 GOPS 值通常在 1-3 之間,但仍然能夠提供許多 ML 應(yīng)用中所需要的推理功能。這些設(shè)備也依賴專為低功耗 ML 應(yīng)用而設(shè)計(jì)的 Arm Cortex 處理器。除了支持整數(shù)和浮點(diǎn)運(yùn)算以及微控制器中的許多其他功能之外,TOPS 或其他任何單一指標(biāo)明顯無(wú)法充分定義性能,無(wú)論是單獨(dú)使用還是在系統(tǒng)中都是如此。

結(jié)論

隨著物聯(lián)網(wǎng)領(lǐng)域進(jìn)一步發(fā)展,在邊緣執(zhí)行盡可能多的處理,逐漸出現(xiàn)一種需求,即在直接位于或附著于傳感器上的微控制器上執(zhí)行推理。也就是說(shuō),微處理器中應(yīng)用處理器和神經(jīng)網(wǎng)絡(luò)加速器的發(fā)展速度十分迅猛,更完善的解決方案也層出不窮。總體趨勢(shì)是將更多以人工智能為中心的功能(例如神經(jīng)網(wǎng)絡(luò)處理)與應(yīng)用處理器一起整合到微處理器中,同時(shí)避免功耗或尺寸顯著增加。

如今,可以先在功能更強(qiáng)大的 CPU 或 GPU 上訓(xùn)練模型,然后在使用推理引擎(例如 TensorFlow Lite)的微控制器上實(shí)施,從而減小尺寸以滿足微控制器的資源要求??奢p松擴(kuò)展,以適應(yīng)更高的 ML 要求。相信不久之后,推理和訓(xùn)練就能在這些設(shè)備上同時(shí)執(zhí)行,讓微控制器的競(jìng)爭(zhēng)力直追更大、更昂貴的計(jì)算解決方案。


審核編輯 黃昊宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • mcu
    mcu
    +關(guān)注

    關(guān)注

    146

    文章

    17984

    瀏覽量

    366882
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5561

    瀏覽量

    122794
  • 邊緣計(jì)算
    +關(guān)注

    關(guān)注

    22

    文章

    3326

    瀏覽量

    50914
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    邊緣計(jì)算 vs. 云計(jì)算,誰(shuí)才是工業(yè)物聯(lián)網(wǎng)的未來(lái)?

    在物聯(lián)網(wǎng)的浪潮中,邊緣計(jì)算正以超低延遲、高效網(wǎng)絡(luò)和增強(qiáng)安全性,重新定義數(shù)據(jù)處理方式。無(wú)論是工業(yè)控制還是商業(yè)應(yīng)用,邊緣計(jì)算都是邁向智能化未來(lái)
    的頭像 發(fā)表于 03-26 11:13 ?290次閱讀
    <b class='flag-5'>邊緣</b><b class='flag-5'>計(jì)算</b> vs. 云<b class='flag-5'>計(jì)算</b>,誰(shuí)才是工業(yè)物聯(lián)網(wǎng)的<b class='flag-5'>未來(lái)</b>?

    什么是邊緣計(jì)算網(wǎng)關(guān)?深度解析邊緣計(jì)算網(wǎng)關(guān)的核心技術(shù)與應(yīng)用場(chǎng)景

    景等維度,全面解析邊緣計(jì)算網(wǎng)關(guān)的價(jià)值與未來(lái)。 一、邊緣計(jì)算網(wǎng)關(guān)的定義與架構(gòu) 1.1 定義與核心功能 邊緣
    的頭像 發(fā)表于 03-24 10:02 ?750次閱讀
    什么是<b class='flag-5'>邊緣</b><b class='flag-5'>計(jì)算</b>網(wǎng)關(guān)?<b class='flag-5'>深度</b>解析<b class='flag-5'>邊緣</b><b class='flag-5'>計(jì)算</b>網(wǎng)關(guān)的核心技術(shù)與應(yīng)用場(chǎng)景

    邊緣設(shè)備設(shè)計(jì)和部署深度神經(jīng)網(wǎng)絡(luò)的實(shí)用框架

    ???? 機(jī)器學(xué)習(xí)深度學(xué)習(xí)應(yīng)用程序正越來(lái)越多地從云端轉(zhuǎn)移到靠近數(shù)據(jù)源頭的嵌入式設(shè)備。隨著邊緣計(jì)算市場(chǎng)的快速擴(kuò)張,多種因素正在推動(dòng)
    的頭像 發(fā)表于 12-20 11:28 ?893次閱讀

    邊緣學(xué)習(xí):降本增效,開啟物流新未來(lái)

    展現(xiàn)出獨(dú)特優(yōu)勢(shì)。 邊緣學(xué)習(xí)作為深度學(xué)習(xí)的一個(gè)子集,具有易于部署和成本效益高的特點(diǎn)。它不需要復(fù)雜的編程知識(shí),只需通過(guò)簡(jiǎn)單的配置和訓(xùn)練,即可快速投入使用。其在物流中的核心優(yōu)勢(shì),主要包括:
    的頭像 發(fā)表于 12-20 09:07 ?397次閱讀

    如何在低功耗MCU實(shí)現(xiàn)人工智能和機(jī)器學(xué)習(xí)

    人工智能 (AI) 和機(jī)器學(xué)習(xí) (ML) 的技術(shù)不僅正在快速發(fā)展,還逐漸被創(chuàng)新性地應(yīng)用于低功耗的微控制器 (MCU) 中,從而實(shí)現(xiàn)邊緣AI/ML的解決方案。
    的頭像 發(fā)表于 12-17 16:06 ?870次閱讀

    NPU在邊緣計(jì)算中的優(yōu)勢(shì)

    隨著物聯(lián)網(wǎng)(IoT)和5G技術(shù)的發(fā)展,邊緣計(jì)算作為一種新興的計(jì)算模式,正在逐漸成為處理和分析數(shù)據(jù)的重要手段。 NPU的定義與功能 NPU是一種專門為深度
    的頭像 發(fā)表于 11-15 09:13 ?1252次閱讀

    GPU深度學(xué)習(xí)應(yīng)用案例

    GPU在深度學(xué)習(xí)中的應(yīng)用廣泛且重要,以下是一些GPU深度學(xué)習(xí)應(yīng)用案例: 一、圖像識(shí)別 圖像識(shí)別是深度學(xué)習(xí)
    的頭像 發(fā)表于 10-27 11:13 ?1363次閱讀

    FPGA加速深度學(xué)習(xí)模型的案例

    FPGA(現(xiàn)場(chǎng)可編程門陣列)加速深度學(xué)習(xí)模型是當(dāng)前硬件加速領(lǐng)域的一個(gè)熱門研究方向。以下是一些FPGA加速深度學(xué)習(xí)模型的案例: 一、基于FPGA的AlexNet卷積運(yùn)算加速 項(xiàng)目名稱
    的頭像 發(fā)表于 10-25 09:22 ?1233次閱讀

    邊緣計(jì)算對(duì)網(wǎng)絡(luò)延遲的影響

    的延遲。而邊緣計(jì)算則將計(jì)算能力“邊緣化”,即將數(shù)據(jù)處理和分析的任務(wù)從云端遷移到網(wǎng)絡(luò)的邊緣,即用戶設(shè)備或靠近用戶的
    的頭像 發(fā)表于 10-24 14:25 ?1364次閱讀

    邊緣計(jì)算未來(lái)發(fā)展趨勢(shì)

    邊緣計(jì)算未來(lái)發(fā)展趨勢(shì)呈現(xiàn)出多元化和高速增長(zhǎng)的態(tài)勢(shì),以下是對(duì)其未來(lái)發(fā)展趨勢(shì)的分析: 一、技術(shù)融合與創(chuàng)新 與5G、AI技術(shù)的深度融合 隨著5G
    的頭像 發(fā)表于 10-24 14:21 ?1838次閱讀

    邊緣計(jì)算與云計(jì)算的區(qū)別

    邊緣計(jì)算與云計(jì)算是兩種不同的計(jì)算模式,它們?cè)?b class='flag-5'>計(jì)算資源的分布、應(yīng)用場(chǎng)景和特點(diǎn)存在顯著差異。以下是
    的頭像 發(fā)表于 10-24 14:08 ?1401次閱讀

    計(jì)算邊緣計(jì)算的結(jié)合

    基于互聯(lián)網(wǎng)的計(jì)算方式,通過(guò)將數(shù)據(jù)和程序存儲(chǔ)在遠(yuǎn)程服務(wù)器,用戶可以通過(guò)網(wǎng)絡(luò)隨時(shí)隨地訪問和使用。 云計(jì)算提供超大規(guī)模存儲(chǔ)、高度可擴(kuò)展性、低成本和易于協(xié)作等優(yōu)勢(shì),適合需要集中計(jì)算和大規(guī)模數(shù)
    的頭像 發(fā)表于 10-24 09:19 ?1157次閱讀

    AI大模型與深度學(xué)習(xí)的關(guān)系

    人類的學(xué)習(xí)過(guò)程,實(shí)現(xiàn)對(duì)復(fù)雜數(shù)據(jù)的學(xué)習(xí)和識(shí)別。AI大模型則是指模型的參數(shù)數(shù)量巨大,需要龐大的計(jì)算資源來(lái)進(jìn)行訓(xùn)練和推理。深度學(xué)習(xí)算法為AI大模型
    的頭像 發(fā)表于 10-23 15:25 ?2889次閱讀

    數(shù)據(jù)輕松云——明達(dá)Mbox邊緣計(jì)算網(wǎng)關(guān)

    隨著工業(yè)4.0時(shí)代的到來(lái),工廠數(shù)字化轉(zhuǎn)型已成為提升生產(chǎn)效率、優(yōu)化資源配置、增強(qiáng)企業(yè)競(jìng)爭(zhēng)力的關(guān)鍵。明達(dá)技術(shù)憑借其先進(jìn)的邊緣計(jì)算網(wǎng)關(guān)與云平臺(tái)技術(shù),為工廠提供了高效、穩(wěn)定的數(shù)據(jù)采集與云解決方案。本文將為您介紹明達(dá)
    的頭像 發(fā)表于 10-18 16:47 ?520次閱讀
    數(shù)據(jù)輕松<b class='flag-5'>上</b>云——明達(dá)Mbox<b class='flag-5'>邊緣</b><b class='flag-5'>計(jì)算</b>網(wǎng)關(guān)

    FPGA做深度學(xué)習(xí)能走多遠(yuǎn)?

    。FPGA的優(yōu)勢(shì)就是可編程可配置,邏輯資源多,功耗低,而且賽靈思等都在極力推廣。不知道用FPGA做深度學(xué)習(xí)未來(lái)會(huì)怎樣發(fā)展,能走多遠(yuǎn),你怎么看。 A:FPGA 在深度
    發(fā)表于 09-27 20:53