一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

簡(jiǎn)單三步在Windows上調(diào)用低功耗NPU部署AI模型

英特爾物聯(lián)網(wǎng) ? 來源:英特爾物聯(lián)網(wǎng) ? 2024-02-22 17:17 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

相信很多小伙伴都已經(jīng)知道,在最新一代的英特爾 酷睿 Ultra 移動(dòng)端處理中已經(jīng)集成了被稱為 NPU 的神經(jīng)網(wǎng)絡(luò)加速處理器,以提供低功耗的 AI 算力,特別適合于 PC 端需要長(zhǎng)時(shí)間穩(wěn)定運(yùn)行的 AI 輔助功能,例如會(huì)議聊天軟件中的自動(dòng)摳像,或是畫面超分辨率等應(yīng)用。而 OpenVINO 工具套件也在第一時(shí)間對(duì) NPU 進(jìn)行了適配,接下來就讓我們一起看一下如何在英特爾 酷睿 Ultra 處理器上搭建基礎(chǔ)環(huán)境,并調(diào)用 NPU 進(jìn)行模型推理任務(wù)。

NPU 驅(qū)動(dòng)安裝

首先我們需要確保是否安裝了最新版的 NPU 驅(qū)動(dòng),可以通過 Windows 任務(wù)管理調(diào)出當(dāng)前 NPU 驅(qū)動(dòng)版本信息。

7f01b5f0-d162-11ee-a297-92fbcf53809c.jpg

圖:NPU 在 Windows 任務(wù)管理器中顯示驅(qū)動(dòng)版本

查詢當(dāng)前最新的 NPU 驅(qū)動(dòng)版本:

https://www.intel.com/content/www/us/en/download/794734/intel-npu-driver-windows.html

7f1ff6a0-d162-11ee-a297-92fbcf53809c.png

圖:NPU 驅(qū)動(dòng)下載頁(yè)面

如果想更新或是重裝 NPU 驅(qū)動(dòng),可以參考以下指引下載并安裝驅(qū)動(dòng):

https://docs.openvino.ai/2023.3/openvino_docs_install_guides_configurations_for_intel_npu.html

OpenVINO 的下載和安裝

由于目前 NPU Plugin 還沒有被集成在 OpenVINO 的 PyPI 安裝包中,因此我們需要通過下載 OpenVINO runtime 壓縮包的方式進(jìn)行安裝。

7f35a298-d162-11ee-a297-92fbcf53809c.png

圖:OpenVINO 下載頁(yè)面

整個(gè)安裝過程非常簡(jiǎn)單,只需將壓縮包解壓到在本地路徑下即可。具體方法可以參考上圖標(biāo)紅處的安裝說明。

7f5bbdd4-d162-11ee-a297-92fbcf53809c.png

圖:將壓縮包解壓至本地路徑

Python 環(huán)境配置

通過執(zhí)行壓縮包中的 setupvars.bat 環(huán)境配置腳本,我們便可以直接在 Python 環(huán)境下加載 OpenVINO runtime 和 NPU Plugin 環(huán)境。同時(shí)利用 OpenVINO 的 Python API 指令,我們可以快速驗(yàn)證 NPU 是否可以被正常調(diào)用。

7fbe5232-d162-11ee-a297-92fbcf53809c.jpg

圖:Python 環(huán)境中驗(yàn)證 NPU 調(diào)用

C++ 環(huán)境配置

不同于 Python,Windows 上的 C++ 應(yīng)用需要依賴于 CMake 或者是 Visual Studio 的環(huán)境下調(diào)試,因此這里我們需要簡(jiǎn)單配置下 OpenVINO 庫(kù)的路徑。下面以 Visual Studio 中新建項(xiàng)目的屬性配置頁(yè)面為例。

7fd6349c-d162-11ee-a297-92fbcf53809c.png

圖:配置 OpenVINO runtime 頭文件路徑

7ff36080-d162-11ee-a297-92fbcf53809c.png

圖:配置 OpenVINO runtime 動(dòng)態(tài)庫(kù)路徑

800aead4-d162-11ee-a297-92fbcf53809c.png

圖:配置 OpenVINO runtime 及 frontednd 靜態(tài)庫(kù)路徑

80332d0a-d162-11ee-a297-92fbcf53809c.png

圖:在 Windows 本地添加 OpenVINO 環(huán)境變量路徑

當(dāng)完成 Visual Studio 項(xiàng)目屬性配置后,我們可以通過調(diào)試以下示例代碼,測(cè)試 NPU 是否可以被檢測(cè)及調(diào)用。

#include 
#include 


int main(int argc, char* argv[]) {


  // -------- Get OpenVINO runtime version --------
  std::cout << ov::get_openvino_version() << std::endl;


 ? ?// -------- Step 1. Initialize OpenVINO Runtime Core --------
 ? ?ov::Core core;


 ? ?// -------- Step 2. Get list of available devices --------
 ? ?std::vector availableDevices = core.get_available_devices();


  // -------- Step 3. Query and print supported metrics and config keys --------
  std::cout << "available devices: " << std::endl;
 ? ?for (auto&& device : availableDevices) {
 ? ? ? ?std::cout << device << std::endl;
 ? ?}
}

805d6408-d162-11ee-a297-92fbcf53809c.png

圖:VS 環(huán)境中驗(yàn)證 NPU 調(diào)用

測(cè)試效果

當(dāng)完成 NPU 安裝后,我們可以通過 OpenVINO notebooks 中提供的示例,簡(jiǎn)單測(cè)試下 NPU 的性能。這個(gè)示例會(huì)通過以下 Python 代碼來將模型部署在 NPU 上。

compiled_model = core.compile_model("model.xml", "NPU")

8077ab42-d162-11ee-a297-92fbcf53809c.png

圖:實(shí)時(shí)人體關(guān)鍵點(diǎn)演示效果

可以看到 NPU 在運(yùn)行實(shí)時(shí)人體關(guān)鍵點(diǎn)檢測(cè)模型時(shí)的效果和速度還是非常不錯(cuò)的,達(dá)到了 90FPS 的吞吐量,同時(shí)推理任務(wù)幾乎也沒有占用 CPU 額外的資源,真正做到了在提供高算力的同時(shí),減輕 CPU 和 GPU 的任務(wù)負(fù)載。





審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4814

    瀏覽量

    103673
  • python
    +關(guān)注

    關(guān)注

    56

    文章

    4827

    瀏覽量

    86794
  • 加速處理器
    +關(guān)注

    關(guān)注

    0

    文章

    8

    瀏覽量

    6504
  • NPU
    NPU
    +關(guān)注

    關(guān)注

    2

    文章

    330

    瀏覽量

    19770

原文標(biāo)題:簡(jiǎn)單三步在 Windows 上調(diào)用低功耗 NPU 部署 AI 模型 | 開發(fā)者實(shí)戰(zhàn)

文章出處:【微信號(hào):英特爾物聯(lián)網(wǎng),微信公眾號(hào):英特爾物聯(lián)網(wǎng)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    無法NPU上推理OpenVINO?優(yōu)化的 TinyLlama 模型怎么解決?

    NPU 上推斷 OpenVINO?優(yōu)化的 TinyLlama 模型。 遇到的錯(cuò)誤: get_shape was called on a descriptor::Tensor with dynamic shape
    發(fā)表于 07-11 06:58

    企業(yè)部署AI模型怎么做

    當(dāng)下,AI模型已成為驅(qū)動(dòng)決策自動(dòng)化、服務(wù)智能化與產(chǎn)品創(chuàng)新的核心引擎。然而,企業(yè)面對(duì)動(dòng)輒數(shù)百億參數(shù)的大模型部署時(shí),常陷入算力不足、響應(yīng)延遲高、成本失控等困境。如何突破瓶頸,實(shí)現(xiàn)高效、穩(wěn)
    的頭像 發(fā)表于 06-04 09:26 ?211次閱讀

    RK3588核心板邊緣AI計(jì)算中的顛覆性優(yōu)勢(shì)與場(chǎng)景落地

    低功耗。相比傳統(tǒng)四核A72方案(如RK3399),單線程性能提升80%,多線程任務(wù)處理能力翻倍。 6TOPS獨(dú)立NPU: 支持INT8/INT16混合精度計(jì)算,可直接部署YOLOv5
    發(fā)表于 04-15 10:48

    首創(chuàng)開源架構(gòu),天璣AI開發(fā)套件讓端側(cè)AI模型接入得心應(yīng)手

    模型全鏈路分析功能,針對(duì)AI應(yīng)用開發(fā)的大痛點(diǎn)逐個(gè)擊破。 當(dāng)前AI應(yīng)用開發(fā)者使用開發(fā)工具時(shí)會(huì)面臨一個(gè)很頭疼的問題,種類多、功能不聚合、過
    發(fā)表于 04-13 19:52

    AI Agent 應(yīng)用與項(xiàng)目實(shí)戰(zhàn)》閱讀心得3——RAG架構(gòu)與部署本地知識(shí)庫(kù)

    ,提供更穩(wěn)定的服務(wù)質(zhì)量,但需要考慮API調(diào)用成本和網(wǎng)絡(luò)延遲等因素。代碼實(shí)現(xiàn)方面,作者提供了相對(duì)詳細(xì)的示例,包括文本分塊的具體參數(shù)設(shè)置、向量化過程中的模型選擇、檢索閾值的調(diào)優(yōu)等關(guān)鍵技術(shù)點(diǎn),這些內(nèi)容對(duì)想要
    發(fā)表于 03-07 19:49

    C#集成OpenVINO?:簡(jiǎn)化AI模型部署

    開源測(cè)控、機(jī)器視覺、數(shù)采與分析大領(lǐng)域中,如何快速將AI模型集成到應(yīng)用程序中, 實(shí)現(xiàn)AI賦能和應(yīng)用增值? 最容易的方式是:
    的頭像 發(fā)表于 02-17 10:03 ?1999次閱讀
    C#集成OpenVINO?:簡(jiǎn)化<b class='flag-5'>AI</b><b class='flag-5'>模型</b><b class='flag-5'>部署</b>

    添越智創(chuàng)基于 RK3588 開發(fā)板部署測(cè)試 DeepSeek 模型全攻略

    AI 處理效率,成為部署各類 AI 模型的關(guān)鍵依托。 憑借這些卓越的硬件性能,RK3588 開發(fā)板保持
    發(fā)表于 02-14 17:42

    企業(yè)AI模型部署攻略

    當(dāng)下,越來越多的企業(yè)開始探索和實(shí)施AI模型,以提升業(yè)務(wù)效率和競(jìng)爭(zhēng)力。然而,AI模型部署并非易事,需要企業(yè)
    的頭像 發(fā)表于 12-23 10:31 ?798次閱讀

    AI模型部署邊緣設(shè)備的奇妙之旅:目標(biāo)檢測(cè)模型

    以及邊緣計(jì)算能力的增強(qiáng),越來越多的目標(biāo)檢測(cè)應(yīng)用開始直接在靠近數(shù)據(jù)源的邊緣設(shè)備上運(yùn)行。這不僅減少了數(shù)據(jù)傳輸延遲,保護(hù)了用戶隱私,同時(shí)也減輕了云端服務(wù)器的壓力。然而,邊緣端部署高效且準(zhǔn)確的目標(biāo)檢測(cè)模型
    發(fā)表于 12-19 14:33

    AI模型部署邊緣設(shè)備的奇妙之旅:如何實(shí)現(xiàn)手寫數(shù)字識(shí)別

    更適合生產(chǎn)環(huán)境的框架來部署。此外,許多推理引擎和硬件加速器也支持ONNX格式,從而進(jìn)一加快了模型部署的速度。 凌智視覺模塊中
    發(fā)表于 12-06 17:20

    AI模型部署和管理的關(guān)系

    AI模型部署與管理是AI項(xiàng)目成功的兩大支柱,它們之間既相互獨(dú)立又緊密相連,共同推動(dòng)著AI技術(shù)從實(shí)驗(yàn)室走向?qū)嶋H應(yīng)用。
    的頭像 發(fā)表于 11-21 10:02 ?660次閱讀

    如何在STM32f4系列開發(fā)板上部署STM32Cube.AI,

    已下載STM32Cube.AI擴(kuò)展包,但是無法使用,感覺像是沒有部署AI模型,我是想要通過攝像頭拍照,上傳圖像后,經(jīng)過開發(fā)板處理器進(jìn)行AI
    發(fā)表于 11-18 09:39

    企業(yè)AI模型部署怎么做

    AI模型部署作為這一轉(zhuǎn)型過程中的關(guān)鍵環(huán)節(jié),其成功實(shí)施對(duì)于企業(yè)的長(zhǎng)遠(yuǎn)發(fā)展至關(guān)重要。在此,AI部落小編為您介紹企業(yè)AI
    的頭像 發(fā)表于 11-04 10:15 ?786次閱讀

    使用OpenVINO 2024.4算力魔方上部署Llama-3.2-1B-Instruct模型

    前面我們分享了《三步完成Llama3算力魔方的本地量化和部署》。2024年9月25日,Meta又發(fā)布了Llama3.2:一個(gè)多語言大型語言模型(LLMs)的集合。
    的頭像 發(fā)表于 10-12 09:39 ?1452次閱讀
    使用OpenVINO 2024.4<b class='flag-5'>在</b>算力魔方上<b class='flag-5'>部署</b>Llama-3.2-1B-Instruct<b class='flag-5'>模型</b>

    利用恩智浦云實(shí)驗(yàn)室部署AI模型

    如今,人工智能(AI)非?;鸨@個(gè)風(fēng)口該如何把握?作為一個(gè)電子工程師,和AI最主要的交集應(yīng)該就是邊緣計(jì)算了,具體來講,就是一些性能、功耗以及價(jià)格相對(duì)較低的嵌入式平臺(tái)上
    的頭像 發(fā)表于 08-02 11:46 ?3665次閱讀
    利用恩智浦云實(shí)驗(yàn)室<b class='flag-5'>部署</b><b class='flag-5'>AI</b><b class='flag-5'>模型</b>