一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

RV1126 yolov8訓(xùn)練部署教程

廣州靈眸科技有限公司 ? 2025-04-18 15:18 ? 次閱讀

1. Yolov8簡介

YOLOv8 是 ultralytics 公司在 2023 年 1月 10 號開源的基于YOLOV5進行更新的 下一個重大更新版本,目前支持圖像分類、物體檢測和實例分割任務(wù),鑒于Yolov5的良好表現(xiàn),Yolov8在還沒有開源時就收到了用戶的廣泛關(guān)注。其主要結(jié)構(gòu)如下圖所示:

wKgZPGgB_MOAGjCiAE0OnAkSx38316.png

教程針對目標(biāo)檢測算法yolov8的訓(xùn)練和部署到EASY-EAI-Nano(RV1126)進行說明,而數(shù)據(jù)標(biāo)注方法可以參考我們往期的文章。

wKgZPGgB_MGATqhGAAEwqPVsjwQ715.png

2. Yolov8目標(biāo)檢測算法訓(xùn)練

通過git工具,在PC端克隆遠程倉庫(注:此處可能會因網(wǎng)絡(luò)原因造成卡頓,請耐心等待),修改過算子后的yolov8倉庫: https://github.com/airockchip/ultralytics_yolov8

3. 轉(zhuǎn)換為rknn模型環(huán)境搭建

onnx模型需要轉(zhuǎn)換為rknn模型才能在EASY-EAI-Nano運行,所以需要先搭建rknn-toolkit模型轉(zhuǎn)換工具的環(huán)境。當(dāng)然tensorflow、tensroflow lite、caffe、darknet等也是通過類似的方法進行模型轉(zhuǎn)換,只是本教程onnx為例。

3.1 概述

模型轉(zhuǎn)換環(huán)境搭建流程如下所示:

wKgZO2gB_MGALN_QAAD0uKKxK1k446.png

3.2下載模型轉(zhuǎn)換工具

為了保證模型轉(zhuǎn)換工具順利運行,請下載網(wǎng)盤里”AI算法開發(fā)/RKNN-Toolkit模型轉(zhuǎn)換工具/rknn-toolkit-v1.7.3/docker/rknn-toolkit-1.7.3-docker.tar.gz”。

3.3 把工具移到電腦端ubuntu

把下載完成的docker鏡像移到我司的虛擬機ubuntu20.04的rknn-toolkit目錄,如下圖所示:

wKgZPGgB-kuALp24AABX1QyhA-s529.png

3.4 運行模型轉(zhuǎn)換工具環(huán)境

在該目錄打開終端:

wKgZO2gB-kyAAXtrAAC2zYJntHM282.png

執(zhí)行以下指令加載模型轉(zhuǎn)換工具docker鏡像:

docker load --input /home/developer/rknn-toolkit/rknn-toolkit-1.7.3-docker.tar.gz

執(zhí)行以下指令進入鏡像bash環(huán)境:

docker run -t -i --privileged -v /dev/bus/usb:/dev/bus/usb rknn-toolkit:1.7.3 /bin/bash

現(xiàn)象如下圖所示:

wKgZPGgB-kyAKIUpAAB7xliyey8367.png

輸入“python”加載python相關(guān)庫,嘗試加載rknn庫,如下圖環(huán)境測試成功:

wKgZO2gB-kyAIs8BAACpm7KDKWw612.png

至此,模型轉(zhuǎn)換工具環(huán)境搭建完成。

4. 模型轉(zhuǎn)換為RKNN

EASY EAI Nano支持.rknn后綴的模型的評估及運行,對于常見的tensorflow、tensroflow lite、caffe、darknet、onnx和Pytorch模型都可以通過我們提供的 toolkit 工具將其轉(zhuǎn)換至 rknn 模型,而對于其他框架訓(xùn)練出來的模型,也可以先將其轉(zhuǎn)至 onnx 模型再轉(zhuǎn)換為 rknn 模型。 模型轉(zhuǎn)換操作流程入下圖所示:

pYYBAGO2lkmAX4YPAAD58DT6vJc166.png

4.1 模型轉(zhuǎn)換Demo下載

yolov8_model_convert.tar.bz2quant_dataset.zip解壓到虛擬機,如下圖所示:

wKgZO2gB_MKAchsyAACUNGKxHdE717.png

4.2 進入模型轉(zhuǎn)換工具docker環(huán)境

執(zhí)行以下指令把工作區(qū)域映射進docker鏡像,其中/home/developer/rknn-toolkit/model_convert為工作區(qū)域,/test為映射到docker鏡像,/dev/bus/usb:/dev/bus/usb為映射usb到docker鏡像:

docker run -t -i --privileged -v /dev/bus/usb:/dev/bus/usb -v /home/developer/rknn-toolkit/model_convert:/test rknn-toolkit:1.7.3 /bin/bash

執(zhí)行成功如下圖所示:

wKgZPGgB-kyAXgd0AACDXi34wb8460.png

4.3 模型轉(zhuǎn)換操作說明

4.3.1 模型轉(zhuǎn)換Demo目錄結(jié)構(gòu)

模型轉(zhuǎn)換測試Demo由yolov8_model_convertquant_dataset組成。Yolov8_model_convert存放軟件腳本,quant_dataset存放量化模型所需的數(shù)據(jù)。如下圖所示:

wKgZPGgB_MKAJ1-3AACkO7NCeJ8624.png

Yolov8_model_convert文件夾存放以下內(nèi)容,如下圖所示:

wKgZO2gB_MKAKbS7AAEId0-695w934.png

4.3.2生成量化圖片列表

在docker環(huán)境切換到模型轉(zhuǎn)換工作目錄:

cd /test/yolov8_model_convert

如下圖所示:

wKgZPGfs85uAOydFAABprdkQiSo783.png

執(zhí)行gen_list.py生成量化圖片列表:

python gen_list.py

命令行現(xiàn)象如下圖所示:

wKgZPGfs86SAMQKlAACDWbLAhNA047.png

生成“量化圖片列表”如下文件夾所示:

wKgZPGgB_MKACoHnAAC2nYADLyM354.png

4.3.3 onnx模型轉(zhuǎn)換為rknn模型

rknn_convert.py腳本默認(rèn)進行int8量化操作,腳本代碼清單如下所示:

import sys import os import urllib import traceback import time import sys import numpy as np import cv2 from rknn.api import RKNN ONNX_MODEL = 'yolov8m.onnx' RKNN_MODEL = './yolov8m_rv1126.rknn' DATASET = './pic_path.txt' QUANTIZE_ON = True PRECOMILE_ON = True if __name__ == '__main__': # Create RKNN object rknn = RKNN(verbose=True) if not os.path.exists(ONNX_MODEL): print('model not exist') exit(-1) # pre-process config print('--> Config model') rknn.config(reorder_channel='0 1 2', mean_values=[[0, 0, 0]], std_values=[[255, 255, 255]], optimization_level=3, target_platform = 'rv1126', output_optimize=1, quantize_input_node=QUANTIZE_ON) print('done') # Load ONNX model print('--> Loading model') ret = rknn.load_onnx(model=ONNX_MODEL) if ret != 0: print('Load yolov5 failed!') exit(ret) print('done') # Build model print('--> Building model') ret = rknn.build(pre_compile=PRECOMILE_ON, do_quantization=QUANTIZE_ON, dataset=DATASET) if ret != 0: print('Build yolov5 failed!') exit(ret) print('done') # Export RKNN model print('--> Export RKNN model') ret = rknn.export_rknn(RKNN_MODEL) if ret != 0: print('Export yolov5rknn failed!') exit(ret) print('done')

把onnx模型yolov8m_rv1126.onnx放到yolov8_model_convert目錄(后續(xù)用戶使用自己的模型的時候,替換掉對應(yīng)的onnx即可),并執(zhí)行rknn_convert.py腳本進行模型轉(zhuǎn)換:

python rknn_convert.py

生成模型如下圖所示,此模型可以在EASY EAI Nano環(huán)境運行:

wKgZPGgB_MKAeMrsAAKYFdCXiDA991.png

5. 模型部署示例

5.1 模型部署示例介紹

本小節(jié)展示yolov8模型的在EASY EAI Nano的部署過程,該模型僅經(jīng)過簡單訓(xùn)練供示例使用,不保證模型精度。

5.2 開發(fā)環(huán)境準(zhǔn)備

如果您初次閱讀此文檔,請閱讀《入門指南/開發(fā)環(huán)境準(zhǔn)備/Easy-Eai編譯環(huán)境準(zhǔn)備與更新》,并按照其相關(guān)的操作,進行編譯環(huán)境的部署。

在PC端Ubuntu系統(tǒng)中執(zhí)行run腳本,進入EASY-EAI編譯環(huán)境,具體如下所示。

cd ~/develop_environment ./run.sh

wKgZPGgB7g2AdudVAACbrHAYX20640.png

5.3 源碼下載以及例程編譯

下載yolov8 C Demo示例文件。

下載程序包移至ubuntu環(huán)境后,執(zhí)行以下指令解壓:

tar -xvf yolov8_detect_C_demo.tar.bz2

下載解壓后如下圖所示:

wKgZO2gB_MKAE27oAACtsHCyU2I005.png

在EASY-EAI編譯環(huán)境下,切換到例程目錄執(zhí)行編譯操作:

cd /opt/rknn-toolkit/yolov8_detect_C_demo ./build.sh

注:

* 由于依賴庫部署在板卡上,因此交叉編譯過程中必須保持adb連接。

wKgZPGgB_MOAJ1GgAAIT7CHPbtA322.png

5.4 在開發(fā)板執(zhí)行yolov8目標(biāo)檢測算法

在EASY-EAI編譯環(huán)境下,在例程目錄執(zhí)行以下指令把可執(zhí)行程序推送到開發(fā)板端:

cp yolov8_detect_demo_release/ /mnt/userdata/ -rf

通過按鍵Ctrl+Shift+T創(chuàng)建一個新窗口,執(zhí)行adb shell命令,進入板卡運行環(huán)境:

adb shell

wKgZPGgB-k2ACapFAABR0C4N5zg153.png

進入板卡后,定位到例程上傳的位置,如下所示:

cd /userdata/yolov8_detect_demo_release/

運行例程命令如下所示:

./yolov8_detect_demo yolov8m_rv1126.rknn test.jpg

執(zhí)行結(jié)果如下圖所示,yolov8m算法執(zhí)行時間為212ms:

wKgZO2gB_MOAIbs1AAFYbjzzTyU953.png

更換yolov8s模型, 算法執(zhí)行時間為123ms:

wKgZPGgB_MOAaQgeAAE0qZGJG1g685.png

退出板卡環(huán)境,取回測試圖片:

exit adb pull /userdata/yolov8_detect_demo_release/result.jpg .

測試結(jié)果如下圖所示:

wKgZO2gB_MOAUmovAAzOnK581ho427.jpg

至此,yolov8目標(biāo)檢測例程已成功在板卡運行。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 開源
    +關(guān)注

    關(guān)注

    3

    文章

    3533

    瀏覽量

    43292
  • rv1126
    +關(guān)注

    關(guān)注

    0

    文章

    106

    瀏覽量

    3259
收藏 人收藏

    評論

    相關(guān)推薦

    RV1126/RV1109的接口有哪些

    RV1126/RV1109的接口有哪些?RV1126/RV1109有哪些基本參數(shù)呢?
    發(fā)表于 02-21 07:35

    Qt部署RV1126的arm-linux系統(tǒng)上使用QImage縮放,drawXXXX縮放無效怎么解決?

    Qt部署RV1126的arm-linux系統(tǒng)上使用QImage縮放,drawXXXX縮放無效怎么解決?
    發(fā)表于 03-10 06:37

    RV1126開發(fā)板數(shù)據(jù)手冊

    本產(chǎn)品是基于瑞芯微 RV1126 媒體處理芯片開發(fā)的 IPC 開發(fā)板,分為核心板和底板, 且 RV1126RV1109 是 pin to pin 兼容的,兩者可共用核心板,適用于不同性能要求的 場合。本方案支持客戶基于
    發(fā)表于 08-28 11:09 ?19次下載

    yolov5訓(xùn)練部署全鏈路教程

    本教程針對目標(biāo)檢測算法yolov5的訓(xùn)練部署到EASY-EAI-Nano(RV1126)進行說明。
    的頭像 發(fā)表于 01-05 18:00 ?3556次閱讀
    <b class='flag-5'>yolov</b>5<b class='flag-5'>訓(xùn)練</b><b class='flag-5'>部署</b>全鏈路教程

    YOLOv8自定義數(shù)據(jù)集訓(xùn)練到模型部署推理簡析

    如果你只是想使用而不是開發(fā),強烈推薦通過pip安裝方式獲取YOLOv8包!YOLOv8安裝命令行
    的頭像 發(fā)表于 03-24 09:27 ?4934次閱讀

    【教程】yolov5訓(xùn)練部署全鏈路教程

    本教程針對目標(biāo)檢測算法yolov5的訓(xùn)練部署到EASY-EAI-Nano(RV1126)進行說明,而數(shù)據(jù)標(biāo)注方法可以參考我們往期的文章《Labelimg的安裝與使用》。
    的頭像 發(fā)表于 01-29 15:25 ?3955次閱讀
    【教程】<b class='flag-5'>yolov</b>5<b class='flag-5'>訓(xùn)練</b><b class='flag-5'>部署</b>全鏈路教程

    解鎖YOLOv8修改+注意力模塊訓(xùn)練部署流程

    很多人也想跟修改YOLOv5源碼一樣的方式去修改YOLOv8的源碼,但是在github上面卻發(fā)現(xiàn)找到的YOLOv8項目下面TAG分支是空的
    的頭像 發(fā)表于 08-11 14:14 ?5025次閱讀
    解鎖<b class='flag-5'>YOLOv8</b>修改+注意力模塊<b class='flag-5'>訓(xùn)練</b>與<b class='flag-5'>部署</b>流程

    rv1126芯片參數(shù)介紹

    rv1126芯片參數(shù)介紹 RV1126芯片是一款集成各種計算機視覺算法的專用芯片,它不僅可以提供高質(zhì)量的圖像處理和視覺計算能力,而且還能夠支持靈活的媒體和視頻處理功能。在本文中,我們將對RV1126
    的頭像 發(fā)表于 08-17 11:09 ?8704次閱讀

    YOLOv8實現(xiàn)任意目錄下命令行訓(xùn)練

    當(dāng)你使用YOLOv8命令行訓(xùn)練模型的時候,如果當(dāng)前執(zhí)行的目錄下沒有相關(guān)的預(yù)訓(xùn)練模型文件,YOLOv8就會自動下載模型權(quán)重文件。這個是一個正常操作,但是你還會發(fā)現(xiàn),當(dāng)你在參數(shù)model中
    的頭像 發(fā)表于 09-04 10:50 ?1355次閱讀
    <b class='flag-5'>YOLOv8</b>實現(xiàn)任意目錄下命令行<b class='flag-5'>訓(xùn)練</b>

    基于YOLOv8的自定義醫(yī)學(xué)圖像分割

    YOLOv8是一種令人驚嘆的分割模型;它易于訓(xùn)練、測試和部署。在本教程中,我們將學(xué)習(xí)如何在自定義數(shù)據(jù)集上使用YOLOv8。但在此之前,我想告訴你為什么在存在其他優(yōu)秀的分割模型時應(yīng)該使用
    的頭像 發(fā)表于 12-20 10:51 ?1079次閱讀
    基于<b class='flag-5'>YOLOv8</b>的自定義醫(yī)學(xué)圖像分割

    RK3576 yolov8訓(xùn)練部署教程

    本章展示yolov8模型的在EASY EAI Orin nano的部署過程。
    的頭像 發(fā)表于 04-02 16:04 ?229次閱讀
    RK3576 <b class='flag-5'>yolov8</b><b class='flag-5'>訓(xùn)練</b><b class='flag-5'>部署</b>教程

    RV1126 實現(xiàn)簡單的UI開發(fā)示例

    RV1126上實現(xiàn)簡單的UI開發(fā)實例
    的頭像 發(fā)表于 04-09 16:08 ?181次閱讀
    <b class='flag-5'>RV1126</b> 實現(xiàn)簡單的UI開發(fā)示例

    RV1126 實現(xiàn)人臉識別門禁系統(tǒng)解決方案

    RV1126實現(xiàn)人臉識別門禁系統(tǒng)解決方案
    的頭像 發(fā)表于 04-10 15:17 ?206次閱讀
    <b class='flag-5'>RV1126</b> 實現(xiàn)人臉識別門禁系統(tǒng)解決方案

    RV1126 yolov8訓(xùn)練部署教程

    YOLOv8 是 ultralytics 公司在 2023 年 1月 10 號開源的基于YOLOV5進行更新的 下一個重大更新版本,目前支持圖像分類、物體檢測和實例分割任務(wù),鑒于Yolov5的良好表現(xiàn),
    的頭像 發(fā)表于 04-16 14:53 ?193次閱讀
    <b class='flag-5'>RV1126</b> <b class='flag-5'>yolov8</b><b class='flag-5'>訓(xùn)練</b><b class='flag-5'>部署</b>教程

    基于RV1126開發(fā)板的resnet50訓(xùn)練部署教程

    本教程基于圖像分類算法ResNet50的訓(xùn)練部署到EASY-EAI-Nano(RV1126)進行說明
    的頭像 發(fā)表于 04-18 15:07 ?228次閱讀
    基于<b class='flag-5'>RV1126</b>開發(fā)板的resnet50<b class='flag-5'>訓(xùn)練</b><b class='flag-5'>部署</b>教程