隨著現(xiàn)代人工智能技術(shù)的興起,對設(shè)備上模型訓(xùn)練的需求已成為一個重要的研究領(lǐng)域。任務(wù)復(fù)雜性和工作量的增加強調(diào)了將 AI 模型訓(xùn)練帶到邊緣的必要性。
在邊緣進行推理之后,需要在邊緣的設(shè)備上持續(xù)訓(xùn)練 AI 模型,以處理具有非平穩(wěn)輸入的不確定情況。深度學習模型在部署到嵌入式設(shè)備之前在遠程服務(wù)器上進行訓(xùn)練。但是已經(jīng)發(fā)生了向持續(xù)學習的轉(zhuǎn)變,設(shè)備上的個性化可以通過新獲取的數(shù)據(jù)增加基于用戶交互的自適應(yīng)功能。
在設(shè)備上更新和重新訓(xùn)練已經(jīng)訓(xùn)練過的模型可能需要很長時間,這對于實時輸入來說幾乎是不可能完成的任務(wù)。即使只是簡單地更新預(yù)測模型,新的傳入數(shù)據(jù)也會導(dǎo)致災(zāi)難性的遺忘,其中人工神經(jīng)網(wǎng)絡(luò)在學習新信息時會完全突然地忘記先前學習的信息。
持續(xù)學習 (CL) 是隨著不斷變化的外部環(huán)境、動態(tài)傳入數(shù)據(jù)而增量學習的能力,以及泛化分布外和執(zhí)行遷移和元學習的能力。由于內(nèi)存和計算量的增加,神經(jīng)網(wǎng)絡(luò)僅在部署到嵌入式設(shè)備之前進行推理訓(xùn)練。直到最近,對超低功耗設(shè)備的深度學習模型的研究仍基于訓(xùn)練后部署假設(shè),其中靜態(tài)模型無法在不斷變化的環(huán)境中采用。為了改變動態(tài),在基于 Latent Replay 的 CL 技術(shù)上開展的工作,超低功耗 TinyML 設(shè)備對計算和內(nèi)存的需求一直是個問題。
實時持續(xù)學習的潛在回放
持續(xù)學習的 Latent Replay 方法實際上意味著可以從上面的架構(gòu)圖中理解的幾個方面。在潛在重放中,不是將過去數(shù)據(jù)的一部分存儲在輸入空間中,而是將數(shù)據(jù)存儲在某個中間層的激活卷中。這反過來又解決了計算和存儲問題,為此在復(fù)雜的視頻上進行了基準測試,例如 CORe50 NICv2 和 OpenLORIS。
查看 Latent Replay 的架構(gòu)圖,離輸入層更近的層,通常稱為表示層,通常會執(zhí)行低級特征提取。預(yù)訓(xùn)練模型的權(quán)重是穩(wěn)定的,可以跨應(yīng)用程序重復(fù)使用,而更高級別的模型提取特定于類的特征,對于最大限度地提高準確性至關(guān)重要。為了保持穩(wěn)定性,所提出的方法在 Latent Replay 之下的層采用減慢學習速度,并讓上面的層以自己的速度學習。
即使較低層的速度減慢到零,也可以節(jié)省計算和存儲,因為需要在網(wǎng)絡(luò)中向前和向后流動的模式的一小部分。但在表示層未凍結(jié)為零的正常情況下,存儲在外部存儲器中的激活會經(jīng)歷老化效應(yīng)。如果層的訓(xùn)練很慢,老化效應(yīng)不會破壞,因為外部記憶有時間恢復(fù)新的模式。
具有量化潛在重放的設(shè)備上持續(xù)學習
在最近基于 Pellegrini 所做工作的研究中,研究人員致力于開發(fā)一個 TinyML 平臺,用于通過量化的潛在回放進行設(shè)備上的持續(xù)學習。這項工作采用 VEGA,這是一個基于 PULP 的深度學習 TinyML 平臺,它是一種采用 22nm 工藝技術(shù)制造的端節(jié)點片上系統(tǒng)原型。CL 的 Latent Replay 已經(jīng)在智能嵌入式設(shè)備上進行了測試,包括在 Snapdragon-845 CPU 上運行的智能手機。但這項工作更側(cè)重于超低功耗 TinyML 設(shè)備,以節(jié)省與之相關(guān)的計算和內(nèi)存限制。
該研究提出了擴展 Latent Replay 算法以使用 8 位量化和凍結(jié)前端的想法。這不會影響 CL 過程并支持帶有量化的 Latent Replay 壓縮,從而將內(nèi)存需求減少多達 4.5 倍。這被稱為持續(xù)學習的量化潛在重放。CL 原語包括常見層的前向和后向傳播,如卷積、深度卷積和全連接層,它們經(jīng)過調(diào)整以在 VEGA 上優(yōu)化執(zhí)行。
可以根據(jù)應(yīng)用程序和可用資源定義的計算和存儲精度之間始終存在權(quán)衡。用于持續(xù)學習的潛在重放是適用于從嵌入式設(shè)備到智能小工具的各種系統(tǒng)的最有效方式。
審核編輯:郭婷
-
嵌入式
+關(guān)注
關(guān)注
5149文章
19651瀏覽量
317159 -
cpu
+關(guān)注
關(guān)注
68文章
11074瀏覽量
216897 -
深度學習
+關(guān)注
關(guān)注
73文章
5560瀏覽量
122762
發(fā)布評論請先 登錄
Nordic收購 Neuton.AI 關(guān)于產(chǎn)品技術(shù)的分析
Arm與微軟合作加速邊緣設(shè)備上的AI體驗
設(shè)備智能巡檢系統(tǒng),高效精準定位設(shè)備隱患

在低功耗MCU上實現(xiàn)人工智能和機器學習
熵基科技實現(xiàn)BioCV TinyML與DeepSeek大模型融合
電源技術(shù)對電子設(shè)備的影響
在邊緣設(shè)備上設(shè)計和部署深度神經(jīng)網(wǎng)絡(luò)的實用框架
AI編程在工業(yè)自動化設(shè)備上應(yīng)用趨勢
PLC設(shè)備的數(shù)據(jù)采集上云解決方案
焊接設(shè)備維護技巧
可穿戴設(shè)備上的血壓監(jiān)測申請簡介

第二屆大會回顧第25期 | OpenHarmony上的Python設(shè)備應(yīng)用開發(fā)

評論