一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

在NVIDIA Jetson Zoo中實(shí)現(xiàn)高性能推理

星星科技指導(dǎo)員 ? 來源:NVIDIA ? 作者:NVIDIA ? 2022-04-18 10:01 ? 次閱讀

Microsoft 和 NVIDIA 合作為 NVIDIA Jetson 平臺(tái)構(gòu)建、驗(yàn)證和發(fā)布 ONNX 運(yùn)行時(shí) Python 包和 Docker 容器,現(xiàn)已在Jetson Zoo上提供。

今天發(fā)布的適用于 Jetson 的 ONNX Runtime 將 ONNX Runtime 的性能和可移植性優(yōu)勢(shì)擴(kuò)展到了 Jetson 邊緣 AI 系統(tǒng),允許來自許多不同框架的模型以更少的功耗更快地運(yùn)行。您可以轉(zhuǎn)換來自 PyTorch、TensorFlow、Scikit-Learn 和其他模型的模型,以在具有 ONNX 運(yùn)行時(shí)的 Jetson 平臺(tái)上執(zhí)行推理。

ONNX 運(yùn)行時(shí)優(yōu)化模型以利用設(shè)備上的加速器。此功能使用相同的 API 表面為應(yīng)用程序代碼提供跨不同硬件配置的最佳推理吞吐量,以管理和控制推理會(huì)話。

ONNX Runtime 在數(shù)億臺(tái)設(shè)備上運(yùn)行,每天提供超過 200 億個(gè)推理請(qǐng)求。

Jetson 上 ONNX 運(yùn)行時(shí)的優(yōu)勢(shì)

Jetson System-on-Modules (SOM) 的全系列產(chǎn)品以小巧的外形提供云原生支持,具有無與倫比的性能和能效,有效地將現(xiàn)代 AI、深度學(xué)習(xí)和推理的能力引入嵌入式系統(tǒng)邊緣。Jetson 為一系列應(yīng)用提供支持,從人工智能驅(qū)動(dòng)的網(wǎng)絡(luò)錄像機(jī) (NVR) 和高精度制造中的自動(dòng)光學(xué)檢測(cè) (AOI) 到自主移動(dòng)機(jī)器人 (AMR)。

完整的 Jetson 系列由相同的軟件堆棧提供支持,并由 NVIDIA JetPack SDK 提供支持,其中包括板級(jí)支持包 (BSP)、Linux 操作系統(tǒng)和用于端到端 AI 管道加速的用戶級(jí)庫:

CUDA

cudDNN

用于加速 AI 推理的 TensorRT

用于加速計(jì)算的 cuBlas、cuFFT 等

用于計(jì)算機(jī)視覺和圖像處理的 Visionworks、OpenCV 和 VPI

用于相機(jī) ISP 處理、多媒體和傳感器處理的庫

此 ONNX 運(yùn)行時(shí)包利用 Jetson 邊緣 AI 平臺(tái)中的集成 GPU,使用 CUDA 和 cuDNN 庫為 ONNX 模型提供加速推理。您還可以通過從源代碼構(gòu)建 Python 包來將 ONNX 運(yùn)行時(shí)與 TensorRT 庫一起使用。

專注于開發(fā)者

此版本為您在 Jetson 平臺(tái)上使用 ONNX 運(yùn)行時(shí)提供了一條簡(jiǎn)單的集成路徑。您可以在應(yīng)用程序代碼中集成 ONNX 運(yùn)行時(shí),以便在邊緣設(shè)備上運(yùn)行 AI 應(yīng)用程序的推理。

ML 開發(fā)人員和 IoT 解決方案制造商可以使用預(yù)構(gòu)建的 Docker 映像在邊緣部署 AI 應(yīng)用程序或使用獨(dú)立的 Python 包。Jetson Zoo包含指向 ONNX 運(yùn)行時(shí)包和示例的指針以供入門。

Microsoft Container Registry 中提供了 Jetpack4.4 上 ONNX Runtime 的 Docker 映像:

docker pull mcr.microsoft.com/azureml/onnxruntime:v.1.4.0-jetpack4.4-l4t-base-r32.4.3

或者,要直接在您的應(yīng)用程序中使用Python 包,請(qǐng)下載并將其安裝在您的 Jetson SOM 上:

wget https://nvidia.box.com/shared/static/8sc6j25orjcpl6vhq3a4ir8v219fglng.whl \
-O onnxruntime_gpu-1.4.0-cp36-cp36m-linux_aarch64.whl
pip3 安裝 onnxruntime_gpu-1.4.0-cp36-cp36m-linux_aarch64.whl

在 Jetson 上使用 ONNX 運(yùn)行時(shí)的推理應(yīng)用程序


圖 1. 邊緣的端到端 IoT 應(yīng)用程序。

在NVIDIA Jetson 平臺(tái)(ARM64 設(shè)備)上集成 Azure 與機(jī)器學(xué)習(xí)執(zhí)行教程向您展示了如何使用 TinyYOLO 模型、Azure IoT Edge 和 ONNX Runtime 在您的 Jetson 設(shè)備上開發(fā)對(duì)象檢測(cè)應(yīng)用程序。

在 Jetson 平臺(tái)上運(yùn)行的物聯(lián)網(wǎng)邊緣應(yīng)用程序在 Azure 云中有一個(gè)數(shù)字孿生。推理應(yīng)用程序代碼在由集成的 Jetson ONNX 運(yùn)行時(shí)基礎(chǔ)映像構(gòu)建的 Docker 容器中運(yùn)行。應(yīng)用程序從相機(jī)讀取幀,執(zhí)行對(duì)象檢測(cè),并將檢測(cè)到的對(duì)象結(jié)果發(fā)送到云存儲(chǔ)。從那里,它們可以被可視化和進(jìn)一步處理。

樣本異議檢測(cè)代碼

您可以使用為 Jetson 預(yù)先構(gòu)建的 ONNX Runtime Docker 映像開發(fā)自己的應(yīng)用程序。

使用 Jetson ONNX 運(yùn)行時(shí) Docker 映像創(chuàng)建 Dockerfile 并添加應(yīng)用程序依賴項(xiàng):

來自 mcr.microsoft.com/azureml/onnxruntime:v.1.4.0-jetpack4.4-l4t-base-r32.4.3
工作目錄。
運(yùn)行 apt-get update && apt-get install -y python3-pip libprotobuf-dev protobuf-compiler python-scipy
RUN python3 -m pip install onnx==1.6.0 easydict matplotlib
CMD ["/bin/bash"]

從 Dockerfile 構(gòu)建一個(gè)新鏡像:

docker build -t jetson-onnxruntime-yolov4 。

從 ONNX 模型動(dòng)物園下載 Yolov4 模型、對(duì)象檢測(cè)錨位置和類名:

wget https://github.com/onnx/models/blob/master/vision/object_detection_segmentation/yolov4/model/yolov4.onnx?raw=true -O yolov4.onnx
wget https://raw.githubusercontent.com/onnx/models/master/vision/object_detection_segmentation/yolov4/dependencies/yolov4_anchors.txt
wget https://raw.githubusercontent.com/natke/onnxruntime-jetson/master/coco.names

下載 Yolov4 對(duì)象檢測(cè)前后處理代碼:

wget https://raw.githubusercontent.com/natke/onnxruntime-jetson/master/preprocess_yolov4.py
wget https://raw.githubusercontent.com/natke/onnxruntime-jetson/master/postprocess_yolov4.py

下載一個(gè)或多個(gè)測(cè)試圖像:

wget https://raw.githubusercontent.com/SoloSynth1/tensorflow-yolov4/master/data/kite.jpg

創(chuàng)建一個(gè)應(yīng)用程序 main.py 來預(yù)處理圖像,運(yùn)行對(duì)象檢測(cè),并將原始圖像與檢測(cè)到的對(duì)象一起保存:

導(dǎo)入簡(jiǎn)歷2
將 numpy 導(dǎo)入為 np
導(dǎo)入 preprocess_yolov4 作為 pre
導(dǎo)入 postprocess_yolov4 作為帖子
從 PIL 導(dǎo)入圖像
輸入大小 = 416
original_image = cv2.imread("kite.jpg")
original_image = cv2.cvtColor(original_image, cv2.COLOR_BGR2RGB)
original_image_size = original_image.shape[:2]
image_data = pre.image_preprocess(np.copy(original_image), [input_size, input_size])
image_data = image_data[np.newaxis, ...].astype(np.float32)
print("預(yù)處理后的圖像形狀:",image_data.shape) # 預(yù)處理輸入的形狀
將 onnxruntime 導(dǎo)入為 rt

sess = rt.InferenceSession("yolov4.onnx")

output_name = sess.get_outputs()[0].name
input_name = sess.get_inputs()[0].name

detections = sess.run([output_name], {input_name: image_data})[0]

print("輸出形狀:", detections.shape)

image = post.image_postprocess(original_image,input_size,檢測(cè))

圖像 = Image.fromarray(圖像)
image.save("風(fēng)箏與對(duì)象.jpg")

運(yùn)行應(yīng)用程序:

nvidia-docker run -it --rm -v $PWD:/workspace/ --workdir=/workspace/ jetson-onnxruntime-yolov4 python3 main.py

應(yīng)用程序讀取風(fēng)箏圖像并定位圖像中的所有對(duì)象。您可以嘗試使用不同的圖像并擴(kuò)展應(yīng)用程序以使用視頻流,如前面的 Azure IoT 邊緣應(yīng)用程序所示。

ONNX 運(yùn)行時(shí) v1.4 更新

此軟件包基于 2020 年 7 月發(fā)布的最新ONNX Runtime v1.4 版本。此最新版本提供了許多針對(duì)流行的 Transformer 模型(GPT2、BERT)的更新,包括性能優(yōu)化、新運(yùn)算符的改進(jìn)量化支持和優(yōu)化技術(shù)。該版本還通過新硬件加速器的預(yù)覽版擴(kuò)展了 ONNX 運(yùn)行時(shí)硬件生態(tài)系統(tǒng)的兼容性,包括對(duì) NVIDIA Jetpack 4.4 的 ARM-NN 和 Python 包的支持。

除了這些加速推理更新之外,1.4 版本繼續(xù)在加速訓(xùn)練前沿的先前版本中引入的創(chuàng)新基礎(chǔ)上構(gòu)建,包括通過使用 Huggingface GPT-2 模型的新樣本擴(kuò)展操作員支持。

關(guān)于作者

Natalie Kershaw 是 Microsoft 人工智能框架團(tuán)隊(duì)的項(xiàng)目經(jīng)理,專門研究開發(fā)人員體驗(yàn)。她在澳大利亞的阿德萊德大學(xué)和悉尼大學(xué)學(xué)習(xí)電氣和電子工程以及數(shù)學(xué)/創(chuàng)意寫作。在加入微軟之前,她曾在西雅圖的 RFID 芯片制造商 Impinj 工作。

Suhas Sheshadri 是 NVIDIA 的產(chǎn)品經(jīng)理,專注于 Jetson 軟件。他之前曾在 NVIDIA 的自動(dòng)駕駛團(tuán)隊(duì)工作,為 NVIDIA Drive 平臺(tái)優(yōu)化系統(tǒng)軟件。在空閑時(shí)間,Suhas 喜歡閱讀有關(guān)量子物理學(xué)和博弈論的書籍。

Dustin 是 NVIDIA Jetson 團(tuán)隊(duì)的一名開發(fā)人員推廣員。Dustin 擁有機(jī)器人技術(shù)和嵌入式系統(tǒng)方面的背景,喜歡在社區(qū)中提供幫助并與 Jetson 合作開展項(xiàng)目。您可以在NVIDIA 開發(fā)者論壇或GitHub 上找到他。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 傳感器
    +關(guān)注

    關(guān)注

    2561

    文章

    52198

    瀏覽量

    761707
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    33554

    瀏覽量

    274195
  • python
    +關(guān)注

    關(guān)注

    56

    文章

    4822

    瀏覽量

    85855
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    【幸狐Omni3576邊緣計(jì)算套件試用體驗(yàn)】RKNN 推理測(cè)試與圖像識(shí)別

    【幸狐 Omni3576 邊緣計(jì)算套件測(cè)評(píng)】RKNN 推理測(cè)試與圖像識(shí)別 本文介紹了幸狐 Omni3576 邊緣計(jì)算套件實(shí)現(xiàn) RKNN 推理和圖像物體識(shí)別的測(cè)試流程,包括 RKNN 介紹、環(huán)境搭建
    發(fā)表于 03-20 16:14

    英偉達(dá)GTC25亮點(diǎn):NVIDIA Dynamo開源庫加速并擴(kuò)展AI推理模型

    NVIDIA Dynamo 提高了推理性能,同時(shí)降低了擴(kuò)展測(cè)試時(shí)計(jì)算 (Scaling Test-Time Compute) 的成本; NVIDIA Blackwell 上的
    的頭像 發(fā)表于 03-20 15:03 ?501次閱讀

    Oracle 與 NVIDIA 合作助力企業(yè)加速代理式 AI 推理

    ——Oracle 和 NVIDIA 今日宣布,NVIDIA 加速計(jì)算和推理軟件與 Oracle 的 AI 基礎(chǔ)設(shè)施以及生成式 AI 服務(wù)首次實(shí)現(xiàn)集成,以幫助全球企業(yè)組織加速創(chuàng)建代理式
    發(fā)表于 03-19 15:24 ?282次閱讀
    Oracle 與 <b class='flag-5'>NVIDIA</b> 合作助力企業(yè)加速代理式 AI <b class='flag-5'>推理</b>

    探索NVIDIA Jetson與DeepSeek融合的無限可能

    能力高效地部署到邊緣設(shè)備已然成為行業(yè)關(guān)注的焦點(diǎn)。NVIDIA Jetson 系列作為邊緣計(jì)算領(lǐng)域的佼佼者,憑借其高性能、低功耗的特性,能夠?yàn)?DeepSeek 等 AI 模型的端側(cè)
    的頭像 發(fā)表于 02-21 14:31 ?513次閱讀
    探索<b class='flag-5'>NVIDIA</b> <b class='flag-5'>Jetson</b>與DeepSeek融合的無限可能

    云驥智行借助NVIDIA Jetson打造“域腦”通用計(jì)算平臺(tái)

    本案例,云驥智行(Pegasus Technology)借助 NVIDIA Jetson 打造“域腦”通用計(jì)算平臺(tái),實(shí)現(xiàn)人形機(jī)器人、智
    的頭像 發(fā)表于 02-21 11:41 ?586次閱讀

    使用NVIDIA推理平臺(tái)提高AI推理性能

    NVIDIA推理平臺(tái)提高了 AI 推理性能,為零售、電信等行業(yè)節(jié)省了數(shù)百萬美元。
    的頭像 發(fā)表于 02-08 09:59 ?525次閱讀
    使用<b class='flag-5'>NVIDIA</b><b class='flag-5'>推理</b>平臺(tái)提高AI<b class='flag-5'>推理性能</b>

    解鎖NVIDIA TensorRT-LLM的卓越性能

    Batching、Paged KV Caching、量化技術(shù) (FP8、INT4 AWQ、INT8 SmoothQuant 等) 以及更多功能,確保您的 NVIDIA GPU 能發(fā)揮出卓越的推理性能。
    的頭像 發(fā)表于 12-17 17:47 ?579次閱讀

    u-blox深化與NVIDIA JetsonNVIDIA DRIVE Hyperion平臺(tái)合作

    近日,作為提供定位和無線通信技術(shù)及服務(wù)的全球領(lǐng)先供應(yīng)商u-blox(SIX:UBXN)宣布,作為工業(yè)和汽車市場(chǎng)高精度定位領(lǐng)域的戰(zhàn)略增長(zhǎng)計(jì)劃的關(guān)鍵一環(huán),u-blox公司現(xiàn)已加強(qiáng)對(duì)NVIDIA Jetson
    的頭像 發(fā)表于 12-09 14:08 ?482次閱讀

    初創(chuàng)公司借助NVIDIA Metropolis和Jetson提高生產(chǎn)線效率

    初創(chuàng)公司使用 NVIDIA Metropolis 視覺 AI 和 Jetson 邊緣 AI 平臺(tái)提高生產(chǎn)線效率。
    的頭像 發(fā)表于 11-19 14:39 ?514次閱讀

    使用NVIDIA Jetson打造機(jī)器人導(dǎo)盲犬

    Selin Alara Ornek 是一名富有遠(yuǎn)見的高中生。她使用機(jī)器學(xué)習(xí)和 NVIDIA Jetson邊緣 AI 和機(jī)器人平臺(tái),為視障人士打造了機(jī)器人導(dǎo)盲犬。
    的頭像 發(fā)表于 11-09 13:51 ?559次閱讀

    澎峰科技高性能大模型推理引擎PerfXLM解析

    自ChatGPT問世以來,大模型遍地開花,承載大模型應(yīng)用的高性能推理框架也不斷推出,大有百家爭(zhēng)鳴之勢(shì)。在這種情況下,澎峰科技作為全球領(lǐng)先的智能計(jì)算服務(wù)提供商,2023年11月25日發(fā)布了針對(duì)大語言
    的頭像 發(fā)表于 09-29 10:14 ?1054次閱讀
    澎峰科技<b class='flag-5'>高性能</b>大模型<b class='flag-5'>推理</b>引擎PerfXLM解析

    英偉達(dá)推出全新NVIDIA AI Foundry服務(wù)和NVIDIA NIM推理微服務(wù)

    NVIDIA 宣布推出全新 NVIDIA AI Foundry 服務(wù)和 NVIDIA NIM 推理微服務(wù),與同樣剛推出的 Llama 3.1 系列開源模型一起,為全球企業(yè)的生成式 AI
    的頭像 發(fā)表于 07-25 09:48 ?930次閱讀

    超級(jí)電容器高性能電源應(yīng)用的優(yōu)勢(shì)

    ,備受市場(chǎng)關(guān)注。下面我們將從以下幾方面來介紹超級(jí)電容器高性能電源應(yīng)用的優(yōu)勢(shì)。1、快速響應(yīng)和高效能儲(chǔ)能相比于傳統(tǒng)儲(chǔ)能設(shè)備,超級(jí)電容器的充放電速度非???,可以實(shí)現(xiàn)
    的頭像 發(fā)表于 06-04 09:31 ?787次閱讀
    超級(jí)電容器<b class='flag-5'>在</b><b class='flag-5'>高性能</b>電源應(yīng)用<b class='flag-5'>中</b>的優(yōu)勢(shì)

    Nvidia Jetson Nano + CYW55573/AWXB327MA-PUR M.2無法使用操作系統(tǒng)內(nèi)置的網(wǎng)絡(luò)管理器管理Wi-Fi如何解決?

    我們使用的是 Nvidia Jetson Nano + CYW55573/AWXB327MA-PUR M.2 ,請(qǐng)參閱 Nvidia Jetson 與英飛凌 AIROC Wi-Fi 6
    發(fā)表于 05-23 06:47

    進(jìn)一步解讀英偉達(dá) Blackwell 架構(gòu)、NVlink及GB200 超級(jí)芯片

    冷卻技術(shù),提高計(jì)算密度,減少占地面積,并通過高帶寬、低延遲的GPU通信,有效減少數(shù)據(jù)中心的碳足跡和能源消耗。相較于傳統(tǒng)的NVIDIA H100風(fēng)冷基礎(chǔ)設(shè)施,GB200相同功耗下實(shí)現(xiàn)25倍的
    發(fā)表于 05-13 17:16