一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何采用處理器和FPGA設(shè)計(jì)機(jī)器學(xué)習(xí)的計(jì)算平臺(tái)

電子設(shè)計(jì) ? 來(lái)源:郭婷 ? 作者:電子設(shè)計(jì) ? 2019-02-06 09:37 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

對(duì)于開發(fā)人員而言,機(jī)器學(xué)習(xí)(ML)硬件和軟件的進(jìn)步有望將這些復(fù)雜的方法帶入物聯(lián)網(wǎng)IoT)邊緣設(shè)備。然而,隨著這一研究領(lǐng)域的發(fā)展,開發(fā)人員可以輕松地發(fā)現(xiàn)自己沉浸在這些技術(shù)背后的深層理論中,而不是專注于當(dāng)前可用的解決方案,以幫助他們將基于ML的設(shè)計(jì)推向市場(chǎng)。

本文簡(jiǎn)要回顧了ML的目標(biāo)和能力,ML開發(fā)周期,以及基本完全連接神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)(CNN)的體系結(jié)構(gòu)。然后討論了支持主流ML應(yīng)用程序的框架,庫(kù)和驅(qū)動(dòng)程序。

最后展示了通用處理器FPGA如何作為實(shí)現(xiàn)機(jī)器學(xué)習(xí)算法的硬件平臺(tái)。

ML簡(jiǎn)介

人工智能AI)的一個(gè)子集,ML涵蓋了廣泛的方法和算法。作為一種強(qiáng)大的數(shù)據(jù)分類技術(shù)或在數(shù)據(jù)流中尋找感興趣的模式,它迅速受到關(guān)注。已經(jīng)出現(xiàn)了廣泛的算法來(lái)解決特定類型的問題。

例如,聚類技術(shù)和其他無(wú)監(jiān)督學(xué)習(xí)方法可以揭示大型數(shù)據(jù)集中不同類別的數(shù)據(jù)。強(qiáng)化學(xué)習(xí)提供了能夠探索未知狀態(tài)并選擇替代解決方案的方法,目的是學(xué)習(xí)識(shí)別這些狀態(tài)并在將來(lái)適當(dāng)?shù)刈龀鲰憫?yīng)。最后,監(jiān)督學(xué)習(xí)方法使用表示所需輸出的預(yù)備輸入數(shù)據(jù)來(lái)教授算法如何對(duì)新輸入數(shù)據(jù)進(jìn)行分類。

監(jiān)督學(xué)習(xí)方法通過(guò)使用精心準(zhǔn)備的訓(xùn)練集來(lái)獲得他們的名字,這些訓(xùn)練集將輸入數(shù)據(jù)配對(duì)(稱為特征向量),具有預(yù)期輸出(稱為標(biāo)簽),以訓(xùn)練算法模型,以便將來(lái)對(duì)未標(biāo)記的輸入數(shù)據(jù)模式進(jìn)行分類。例如,開發(fā)人員可能有幾個(gè)特征向量,包括不同的采樣傳感器值集合,這些值都代表某些工業(yè)過(guò)程中的安全條件,以及其他特征向量及其自身的傳感器樣本都表示不安全的情況。

監(jiān)督學(xué)習(xí)方法可以使用這些代表性特征向量及其已知的安全/不安全標(biāo)簽來(lái)訓(xùn)練算法,以基于新的傳感器值識(shí)別其他安全和不安全的條件。

神經(jīng)網(wǎng)絡(luò)

有監(jiān)督的學(xué)習(xí)方法,神經(jīng)網(wǎng)絡(luò)算法已迅速獲得其準(zhǔn)確分類數(shù)據(jù)的能力?;旧窠?jīng)網(wǎng)絡(luò)有三個(gè)階段(圖1)。第一個(gè)是輸入層,其包括輸入特征向量中的每個(gè)特征的輸入。第二個(gè)是隱藏的一些神經(jīng)元層,它們以不同的方式轉(zhuǎn)換這些特征。第三層是輸出層,其將該變換的結(jié)果呈現(xiàn)為一組概率,輸入特征向量可以用訓(xùn)練期間提供的標(biāo)簽之一進(jìn)行分類。

如何采用處理器和FPGA設(shè)計(jì)機(jī)器學(xué)習(xí)的計(jì)算平臺(tái)

圖1:神經(jīng)網(wǎng)絡(luò)包括輸入層,一個(gè)或多個(gè)隱藏轉(zhuǎn)換層,以及呈現(xiàn)該轉(zhuǎn)換結(jié)果的輸出層。 (圖像來(lái)源:Digi-Key Electronics)

此外,一層神經(jīng)元與后續(xù)層神經(jīng)元之間的每個(gè)連接都有一個(gè)相關(guān)的權(quán)重,有效地代表了該特定連接的相對(duì)強(qiáng)度。

在完全連接的神經(jīng)網(wǎng)絡(luò)中,每個(gè)i輸入神經(jīng)元呈現(xiàn)其特征值xi,通過(guò)與下一個(gè)隱藏層中的每個(gè)目標(biāo)神經(jīng)元aj相關(guān)聯(lián)的加權(quán)因子wij進(jìn)行縮放。每個(gè)隱藏層神經(jīng)元aj對(duì)加權(quán)輸入w1jx1 + w2jx2 + ... + wnjxn(和一些偏差值)求和,然后應(yīng)用一些激活函數(shù),該函數(shù)縮放或以其他方式減少呈現(xiàn)給附加到其輸出的神經(jīng)元的求和結(jié)果。此過(guò)程通過(guò)其他隱藏層和最終輸出層重復(fù),其中該減少的值表示輸入要素向量[x1,x2,... xn]可被分類為標(biāo)簽y1或y2的概率(對(duì)于圖1所示的簡(jiǎn)單網(wǎng)絡(luò))訓(xùn)練過(guò)程通過(guò)調(diào)整權(quán)重和偏差值(統(tǒng)稱為模型的參數(shù))來(lái)改進(jìn)模型以實(shí)現(xiàn)訓(xùn)練集向量與其相關(guān)標(biāo)簽之間的最佳匹配。通常以一組隨機(jī)模型參數(shù)開始,訓(xùn)練算法通過(guò)模型重復(fù)傳遞訓(xùn)練數(shù)據(jù)集。對(duì)于每個(gè)完整的傳遞或紀(jì)元,訓(xùn)練算法試圖減少預(yù)測(cè)標(biāo)簽和已知標(biāo)簽之間的差異 - 在每個(gè)時(shí)期由某種類型的特定損失函數(shù)計(jì)算的差異。

表示為函數(shù)在模型參數(shù)中,損失函數(shù)描述了與這些參數(shù)相關(guān)聯(lián)的多維空間中的表面。因此,經(jīng)過(guò)良好調(diào)整的訓(xùn)練過(guò)程基本上可以找到從起點(diǎn)(初始隨機(jī)模型參數(shù))到多維參數(shù)空間上最小點(diǎn)的最快路徑(圖2)。

如何采用處理器和FPGA設(shè)計(jì)機(jī)器學(xué)習(xí)的計(jì)算平臺(tái)

圖2:神經(jīng)網(wǎng)絡(luò)訓(xùn)練尋求找到最小化損失函數(shù)的參數(shù)集(預(yù)期輸出和計(jì)算輸出之間的差異),使用梯度下降找到最小損失點(diǎn)的最快路徑。 (圖片來(lái)源:Mathworks

在任何曲線上,從任何特定點(diǎn)到最小點(diǎn)的變化方向和速率當(dāng)然由曲線上該點(diǎn)的切線斜率來(lái)描述,即其導(dǎo)數(shù)(或其中的偏導(dǎo)數(shù))多維參數(shù)空間)。例如,對(duì)于在多維表面上具有值w和正偏導(dǎo)數(shù)p的某個(gè)假設(shè)參數(shù),可以通過(guò)設(shè)置w = w-αp將參數(shù)移向最小值,其中α是一個(gè)術(shù)語(yǔ),稱為學(xué)習(xí)率,用于幫助避免p太大以至于wp單獨(dú)跳過(guò)最小值而永不收斂的情況。

神經(jīng)網(wǎng)絡(luò)訓(xùn)練算法使用這種技術(shù),稱為梯度下降或其變化,在計(jì)算后修改模型參數(shù)每個(gè)時(shí)代的損失函數(shù)。通過(guò)計(jì)算每個(gè)時(shí)期的最小損失的最短路徑,訓(xùn)練算法最終可以找到傳遞最小損失的特定模型參數(shù),或者足夠接近最小損失的模型參數(shù),通過(guò)附加歷元的迭代將對(duì)結(jié)果幾乎沒有增加。/p>

復(fù)雜神經(jīng)網(wǎng)絡(luò)

這種通用訓(xùn)練過(guò)程在概念上適用于任何神經(jīng)網(wǎng)絡(luò),無(wú)論它是否類似于圖1所示的基本架構(gòu),在深度神經(jīng)網(wǎng)絡(luò)(DNN)設(shè)計(jì)中增加了許多隱藏層,或使用完全不同的架構(gòu)。開發(fā)人員可以找到任意數(shù)量的神經(jīng)網(wǎng)絡(luò)架構(gòu),旨在解決特定的應(yīng)用問題。其中,CNN架構(gòu)已成為圖像識(shí)別的首選方法。

CNN設(shè)計(jì)用于需要高級(jí)識(shí)別圖像,手寫和其他復(fù)雜表示的應(yīng)用,CNN使用管道方法學(xué)習(xí)重要特征在所提供的輸入中,并在其輸出處對(duì)這些特征進(jìn)行分類(圖3)。

如何采用處理器和FPGA設(shè)計(jì)機(jī)器學(xué)習(xí)的計(jì)算平臺(tái)

圖3:CNN結(jié)合了一個(gè)功能學(xué)習(xí)階段,包括通過(guò)多個(gè)感受域過(guò)濾圖像的轉(zhuǎn)換,以及將這些結(jié)果重新組合成分類階段的分類階段。最終輸出層。 (圖像來(lái)源:Mathworks)

CNN以用于預(yù)處理圖像的輸入層開始。特征學(xué)習(xí)階段通常包括多層卷積,整流線性單元(ReLU)和池化功能,這些功能組合起來(lái)識(shí)別圖像的邊緣,顏色分組和其他獨(dú)特元素等特征。

執(zhí)行在這種識(shí)別中,卷積層用多組神經(jīng)元檢查圖像的輸入體積,稱為深度列,它們都連接到輸入圖像中的相同局部區(qū)域(它們的感受野)并接收其所有顏色通道。為了產(chǎn)生卷積,這組神經(jīng)元(稱為濾波器或內(nèi)核)將其感知場(chǎng)滑過(guò)圖像。在此過(guò)程中,內(nèi)核計(jì)算前面描述的相同類型的輸入加權(quán)和。類似地,ReLU層用作前面描述的激活功能。池化層提供了一種專門的功能,可以有效地對(duì)從連接的內(nèi)核接收的結(jié)果進(jìn)行采樣。

CNN的最終分類階段重新連接所有單個(gè)內(nèi)核輸出,并生成輸出,指示輸入圖像對(duì)應(yīng)于在標(biāo)記圖像訓(xùn)練期間使用的特定標(biāo)簽之一的概率。

開發(fā)人員可以找到具體的CNN架構(gòu)的例子,從原始的LeNet,AlexNet和CIFAR ConvNet等相對(duì)較淺的模型,到22層模型GoogleNet架構(gòu)等大型模型,以及每年在ImageNet大規(guī)模視覺中常用的數(shù)百層的非常深的模型認(rèn)可比賽。諸如此類的DNN能夠進(jìn)行顯著的非線性變換,以提取特征并以非常低的錯(cuò)誤率對(duì)復(fù)雜圖像進(jìn)行分類。

然而,直到最近,實(shí)施CNN的能力需要深入了解概率,統(tǒng)計(jì)和線性代數(shù)的基礎(chǔ)數(shù)學(xué)至少是。今天,開發(fā)人員可以利用基于軟件堆棧的復(fù)雜機(jī)器學(xué)習(xí)框架,顯著簡(jiǎn)化包括CNN在內(nèi)的復(fù)雜神經(jīng)網(wǎng)絡(luò)架構(gòu)的實(shí)現(xiàn)。

ML框架

機(jī)器學(xué)習(xí)框架,如MATLAB for Machine學(xué)習(xí),Microsite的認(rèn)知工具包,Google的TensorFlow,三星的Veles以及許多其他人提供設(shè)計(jì),訓(xùn)練和部署神經(jīng)網(wǎng)絡(luò)模型所需的資源。在這些框架內(nèi),開發(fā)人員使用機(jī)器學(xué)習(xí)庫(kù)(如Keras或TensorFlow Estimators)來(lái)描述神經(jīng)網(wǎng)絡(luò)層并實(shí)現(xiàn)訓(xùn)練算法。反過(guò)來(lái),這些庫(kù)使用優(yōu)化的數(shù)學(xué)庫(kù)(如NumPy)來(lái)處理用于梯度下降和損失函數(shù)計(jì)算的復(fù)雜矩陣運(yùn)算。對(duì)于這些操作所需的特定數(shù)值計(jì)算,這些庫(kù)構(gòu)建在較低級(jí)別的庫(kù)上,例如Basic Linear Algebra Subroutines(BLAS)。為了加速訓(xùn)練,這些環(huán)境通常嚴(yán)重依賴于具有相應(yīng)GPU啟用庫(kù)的一個(gè)或多個(gè)圖形處理單元(GPU),例如NumPy兼容CuPy,BLAS兼容cuBLAS或NVIDIA自己的CUDA深度神經(jīng)網(wǎng)絡(luò)庫(kù)(cuDNN)等。最后,這些不同的庫(kù)利用甚至更低級(jí)別的驅(qū)動(dòng)程序,包括跨平臺(tái)OpenCL或NVIDIA CUDA,用于支持GPU的環(huán)境。

這種對(duì)數(shù)字?jǐn)?shù)學(xué)處理優(yōu)化庫(kù)的深度依賴反映了矩陣操作在神經(jīng)網(wǎng)絡(luò)發(fā)展。特別地,一般操作,一般矩陣乘法(gemm),主導(dǎo)神經(jīng)網(wǎng)絡(luò)中使用的計(jì)算類型,特別是CNN(圖4)。

圖4:雖然其影響的具體情況因CNN架構(gòu)的不同而有所不同,但單精度浮動(dòng)通用矩陣乘法(SGEMM)操作主導(dǎo)了培訓(xùn)和推理。 (圖像來(lái)源:Arm ?)

鑒于矩陣運(yùn)算的優(yōu)勢(shì),底層硬件的功能在確定神經(jīng)網(wǎng)絡(luò)的訓(xùn)練時(shí)間和推理中起著核心作用完成模型的時(shí)間。實(shí)際上,這意味著如果目標(biāo)應(yīng)用程序具有適度的性能要求,即使是相對(duì)低級(jí)別的通用系統(tǒng)(如Raspberry Pi)也可用于CNN培訓(xùn)和推理。事實(shí)上,任何圍繞通用處理器設(shè)計(jì)的系統(tǒng),如Arm Cortex ? MCU都可以作為ML平臺(tái)。

為了幫助開發(fā)人員在其Cortex MCU上部署神經(jīng)網(wǎng)絡(luò),Arm提供針對(duì)Arm Cortex-A系列MCU優(yōu)化的專用計(jì)算庫(kù),例如Texas Instruments Sitara MCU,NXP i.MX6 MCU和NXP i.MX8 MCU。對(duì)于基于Arm Cortex-M的MCU,Arm提供CMSIS-NN,這是針對(duì)Arm Cortex-M系列器件的Cortex微控制器軟件接口標(biāo)準(zhǔn)(CMSIS)中的神經(jīng)網(wǎng)絡(luò)特定庫(kù)(圖5)。 CMSIS-NN庫(kù)設(shè)計(jì)為Arm Cortex微控制器軟件接口標(biāo)準(zhǔn)(CMSIS)的附加軟件包,增強(qiáng)了CMSIS-CORE,優(yōu)化了卷積層,池,激活(例如:ReLU)以及其他常用功能。神經(jīng)網(wǎng)絡(luò)模型。

圖5:CMSIS-NN庫(kù)通過(guò)神經(jīng)網(wǎng)絡(luò)模型中常用的優(yōu)化函數(shù)增強(qiáng)了CMSIS-CORE。 (圖像源:Arm)

例如,使用CMSIS-NN庫(kù),開發(fā)人員可以在STMicroelectronics Mbed兼容的NUCLEO-F746ZG開發(fā)板上實(shí)現(xiàn)模型,該開發(fā)板使用基于Arm Cortex-M7的STM32F746ZG MCU 。

專業(yè)的AI芯片最終將為神經(jīng)網(wǎng)絡(luò)和其他機(jī)器學(xué)習(xí)算法提供顯著的性能增強(qiáng),但是這些芯片仍然處于規(guī)劃階段,同時(shí)算法也在鞏固。

需要增加的開發(fā)人員現(xiàn)在,性能可以轉(zhuǎn)向現(xiàn)成的FPGA,例如Intel Arria 10 GX,Lattice Semiconductor iCE40 UltraPlus或Lattice ECP5。這類FPGA集成了能夠加速GEMM操作的DSP模塊,并嵌入了存儲(chǔ)器模塊以減少存儲(chǔ)器訪問瓶頸,從而限制了這些計(jì)算密集型操作的性能。

Lattice Semiconductor使基于FPGA的模型邁出了一步通過(guò)提供機(jī)器學(xué)習(xí)FPGA IP和神經(jīng)網(wǎng)絡(luò)編譯器,進(jìn)一步提高SensAI堆棧。使用SensAI,開發(fā)人員可以在可用的Lattice FPGA開發(fā)平臺(tái)上實(shí)現(xiàn)高級(jí)神經(jīng)網(wǎng)絡(luò),包括Lattice ICE40UP5K-MDP-EVN移動(dòng)開發(fā)板和Lattice LF-EVDK1-EVN嵌入式視覺開發(fā)套件。

雖然速度更快硬件平臺(tái)通常意味著更快的訓(xùn)練和推理時(shí)間,目標(biāo)平臺(tái)中有限的資源通常需要仔細(xì)平衡推理時(shí)間,延遲,內(nèi)存占用和功耗。機(jī)器學(xué)習(xí)專家通過(guò)對(duì)每個(gè)神經(jīng)網(wǎng)絡(luò)架構(gòu)的進(jìn)一步改進(jìn)來(lái)響應(yīng)這些要求。諸如模型參數(shù)和激活函數(shù)的減少比特量化的方法導(dǎo)致早期方法的存儲(chǔ)器占用減少3倍至4倍。進(jìn)一步的改進(jìn)繼續(xù)減少模型大小和復(fù)雜性,以實(shí)現(xiàn)更快的計(jì)算,從而縮短推理時(shí)間,降低延遲并降低功耗。

創(chuàng)新模型架構(gòu),培訓(xùn)方法和專用硬件的結(jié)合繼續(xù)使先進(jìn)的機(jī)器學(xué)習(xí)方法更接近任何開發(fā)人員的優(yōu)勢(shì)。

結(jié)論

機(jī)器學(xué)習(xí)正在成為用戶識(shí)別,對(duì)象識(shí)別以及智能產(chǎn)品中所需的許多其他功能的強(qiáng)大解決方案。盡管機(jī)器學(xué)習(xí)技術(shù)曾被人工智能專家限制使用,但機(jī)器學(xué)習(xí)框架的廣泛應(yīng)用為主流開發(fā)人員的廣泛應(yīng)用打開了大門。

即使機(jī)器學(xué)習(xí)能力繼續(xù)快速發(fā)展,開發(fā)人員也可以已經(jīng)開始將這些框架與通用處理器和FPGA結(jié)合使用,以便在廣泛的應(yīng)用中使用機(jī)器學(xué)習(xí)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 處理器
    +關(guān)注

    關(guān)注

    68

    文章

    19863

    瀏覽量

    234400
  • FPGA
    +關(guān)注

    關(guān)注

    1645

    文章

    22018

    瀏覽量

    616997
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4812

    瀏覽量

    103283
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8499

    瀏覽量

    134394
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    采用Xilinx FPGA加速機(jī)器學(xué)習(xí)應(yīng)用

    全球領(lǐng)先的中文互聯(lián)網(wǎng)搜索引擎提供商百度正在采用賽靈思FPGA加速其中國(guó)數(shù)據(jù)中心的機(jī)器學(xué)習(xí)應(yīng)用。兩家公司正合作進(jìn)一步擴(kuò)大FPGA加速
    發(fā)表于 12-15 17:15

    Project Trillium-提供業(yè)界最具擴(kuò)展性、應(yīng)用范圍最廣的機(jī)器學(xué)習(xí)計(jì)算平臺(tái)

    的同時(shí),也要求保持出色的能效表現(xiàn)。 基于這樣的需求,Arm宣布推出全新機(jī)器學(xué)習(xí)平臺(tái)Project Trillium。 新的設(shè)備需要高性能的機(jī)器學(xué)習(xí)
    發(fā)表于 03-07 20:12

    采用用處理器實(shí)現(xiàn)電機(jī)驅(qū)動(dòng)方案

    基于專用處理器的電機(jī)驅(qū)動(dòng)方案是電機(jī)驅(qū)動(dòng)領(lǐng)域的技術(shù)發(fā)展趨勢(shì),傳統(tǒng)高性能電機(jī)驅(qū)動(dòng)通常需要設(shè)計(jì)者對(duì)于旋轉(zhuǎn)電機(jī)本體和控制算法都有非常深刻的理解,并且常常被大量的外圍電路如霍爾整形電路、電源系統(tǒng)、無(wú)傳感方式
    發(fā)表于 07-26 08:05

    如何正確使用處理器參數(shù)?

    使用處理器參數(shù)。前一步是“目標(biāo)64”,我認(rèn)為選擇了正確的處理器。我已經(jīng)嘗試在多臺(tái)計(jì)算機(jī)上執(zhí)行此操作,并且我已經(jīng)嘗試了ISE 14.1,14.2和14.3,每個(gè)都有各自的u-boot文件。他們都沒有工作
    發(fā)表于 09-03 09:08

    用處理器FPGA與液晶顯示模塊的圖形顯示的編程技術(shù)

    理解和掌握實(shí)時(shí)多媒體工業(yè)產(chǎn)品設(shè)計(jì)的技巧,并進(jìn)行系統(tǒng)設(shè)計(jì)的驗(yàn)證。DE2平臺(tái)的設(shè)計(jì)和制造完全按照工業(yè)產(chǎn)品標(biāo)準(zhǔn)進(jìn)行,可靠性很高。本文利用處理器FPGA與液晶顯示模塊的圖形顯示的編程技術(shù),并以點(diǎn)陣為320
    發(fā)表于 07-30 07:28

    DSP處理器與通用處理器的比較

    DSP處理器與通用處理器的比較1 對(duì)密集的乘法運(yùn)算的支持GPP不是設(shè)計(jì)來(lái)做密集乘法任務(wù)的,即使是一些現(xiàn)代的GPP,也要求多個(gè)指令周期來(lái)做一次乘法。而DSP處理器使用專門的硬件來(lái)實(shí)現(xiàn)單周期乘法。DSP
    發(fā)表于 09-03 08:12

    ISM330DHCX中可用的機(jī)器學(xué)習(xí)內(nèi)核功能信息

    本文檔旨在提供 ISM330DHCX 中可用的機(jī)器學(xué)習(xí)內(nèi)核功能信息。機(jī)器學(xué)習(xí)處理能力允許將一些算法從應(yīng)
    發(fā)表于 09-08 07:53

    采用FPGA處理器的刀片管理控制原理及設(shè)計(jì)

    采用FPGA處理器的刀片管理控制原理及設(shè)計(jì) 隨著電信及企業(yè)網(wǎng)絡(luò)的不斷融合,網(wǎng)絡(luò)架構(gòu)變得更加簡(jiǎn)化,并在提供開放式可擴(kuò)展平臺(tái)的同時(shí)大幅度降低
    發(fā)表于 03-17 15:05 ?15次下載

    什么是通用處理器

    什么是通用處理器 通用微處理器一般指的是服務(wù)器用和桌面計(jì)算用CPU芯片?! ∧壳?,在桌面計(jì)算領(lǐng)域,Intel公司的Pentium系列微處理器
    發(fā)表于 01-12 15:40 ?4652次閱讀

    流水線操作,應(yīng)用處理器,應(yīng)用處理器的結(jié)構(gòu)和原理是什么?

    流水線操作,應(yīng)用處理器,應(yīng)用處理器的結(jié)構(gòu)和原理是什么? 與哈佛結(jié)構(gòu)相關(guān),DSP芯片廣泛采用流水線以減少指令執(zhí)行時(shí)間.從而增強(qiáng)
    發(fā)表于 03-26 15:03 ?1290次閱讀

    應(yīng)用處理器之爭(zhēng)如火如荼

    智能手機(jī)大多采用雙CPU結(jié)構(gòu)在GSM手機(jī)的基帶處理器基礎(chǔ)上添加的應(yīng)用處理器是其核心器件,也是芯片細(xì)分市場(chǎng)單鍵最為激烈的領(lǐng)域,正處于群雄混戰(zhàn)的戰(zhàn)國(guó)時(shí)期。據(jù)SEM ICO預(yù)測(cè),2007年應(yīng)用處理器
    發(fā)表于 02-27 22:35 ?20次下載

    寒武紀(jì)科技將發(fā)布深度學(xué)習(xí)用處理器

    人工智能繞不過(guò)深度學(xué)習(xí)。目前深度學(xué)習(xí)的應(yīng)用還是基于通用處理器如CPU、GPU。寒武紀(jì)科技陳天石表示,在幾年前的谷歌大腦項(xiàng)目,用了1.6萬(wàn)個(gè)CPU核跑7天訓(xùn)練貓臉識(shí)別模型。未來(lái)神經(jīng)網(wǎng)絡(luò)可能達(dá)到百萬(wàn)億
    發(fā)表于 10-11 15:53 ?0次下載
    寒武紀(jì)科技將發(fā)布深度<b class='flag-5'>學(xué)習(xí)</b>專<b class='flag-5'>用處理器</b>

    服務(wù)處理器與家用處理器有什么區(qū)別

    處理器計(jì)算機(jī)作業(yè)的核心設(shè)備,它是整個(gè)機(jī)器的大管家,具有計(jì)算機(jī)數(shù)據(jù)運(yùn)算和命令執(zhí)行的功能,但是不同設(shè)備的處理器功能也不盡相同。企業(yè)商務(wù)使用的
    發(fā)表于 06-02 09:07 ?1831次閱讀

    應(yīng)用處理器芯片行業(yè)科普

    APU市場(chǎng)概述APU(應(yīng)用處理器)概述APU定義APU(Application Processor Unit),又名應(yīng)用處理器芯片,是在低功耗中央處理器的基礎(chǔ)上擴(kuò)展音...
    發(fā)表于 01-25 19:55 ?1次下載
    應(yīng)<b class='flag-5'>用處理器</b>芯片行業(yè)科普

    一文讀懂i.MX 91應(yīng)用處理器:為邊緣平臺(tái)提供安全、高效的Linux計(jì)算能力!

    恩智浦i.MX 9系列應(yīng)用處理器再添新成員,它延續(xù)了i.MX 93系列應(yīng)用處理器的優(yōu)勢(shì),為邊緣平臺(tái)提供安全、高效的Linux計(jì)算能力。恩智浦憑借20多年在開發(fā)多市場(chǎng)應(yīng)
    的頭像 發(fā)表于 06-09 08:10 ?1938次閱讀
    一文讀懂i.MX 91應(yīng)<b class='flag-5'>用處理器</b>:為邊緣<b class='flag-5'>平臺(tái)</b>提供安全、高效的Linux<b class='flag-5'>計(jì)算</b>能力!