一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

OrinNano yolov11訓(xùn)練部署教程

ljx2016 ? 來源:ljx2016 ? 作者:ljx2016 ? 2025-04-10 15:26 ? 次閱讀

1. Yolo11簡(jiǎn)介

YOLO11 系列是 YOLO 家族中最先進(jìn)的 (SOTA)、最輕量級(jí)、最高效的模型,其表現(xiàn)優(yōu)于其前輩。它由 Ultralytics創(chuàng)建,該組織發(fā)布了YOLOv8,這是迄今為止最穩(wěn)定、使用最廣泛的 YOLO 變體YOLO11 將延續(xù) YOLO 系列的傳奇。

教程針對(duì)目標(biāo)檢測(cè)算法yolo11的訓(xùn)練和部署到EASY-EAI-Orin-nano(RK3576)進(jìn)行說明,而數(shù)據(jù)標(biāo)注方法可以參考我們往期的文章。

wKgZO2f3cueAeq9EAABFOhkzQxM620.png

2. Yolo11模型訓(xùn)練

Yolov11訓(xùn)練代碼在導(dǎo)出部分對(duì)比原版會(huì)有一些修改,建議下載我們的訓(xùn)練代碼。百度網(wǎng)盤鏈接:https://pan.baidu.com/s/1yLKZkCOVmfUlbnWbpl103A?pwd=1234, 提取碼: 1234。

2.1 數(shù)據(jù)集準(zhǔn)備

在開始yolo11訓(xùn)練前,先準(zhǔn)備好待訓(xùn)練數(shù)據(jù),如VOC2007,下載鏈接:

http://host.robots.ox.ac.uk/pascal/VOC/voc2007/index.html

然后將VOC2007數(shù)據(jù)分成訓(xùn)練集和測(cè)試集兩個(gè)目錄,如下圖示意:

wKgZPGf3cueADNOPAAAkr-eRgd0189.png

2.2 Voc轉(zhuǎn)Yolo

數(shù)據(jù)準(zhǔn)備好后,使用data/voc_2_yolo.py腳本將Voc數(shù)據(jù)格式轉(zhuǎn)成Yolo數(shù)據(jù)格式。轉(zhuǎn)換完成后的數(shù)據(jù)存儲(chǔ)在原數(shù)據(jù)同級(jí)目錄的yolo_data下,如下圖示意:

wKgZO2f3cueAQFF_AAAXQRCkhsA198.png

2.3 訓(xùn)練參數(shù)配置

數(shù)據(jù)轉(zhuǎn)換完成后,在配置模型的訓(xùn)練參數(shù):data.yaml,default.yaml,yolo11.yaml.

其中:

data.yaml:為待訓(xùn)練數(shù)據(jù)和驗(yàn)證數(shù)據(jù)的路徑,以及類別數(shù)和類別名稱;

default.yaml:為yolo11訓(xùn)練參數(shù),可自行調(diào)整模型訓(xùn)練的參數(shù);

Yolo11.yaml:為yolo11模型結(jié)構(gòu),在模型訓(xùn)練時(shí),你需要修改類別數(shù)。

更多關(guān)于yolo11信息可參考:https://blog.csdn.net/qq_45972324/article/details/143892222

2.4 模型訓(xùn)練

完成上述步驟后,就可以開始訓(xùn)練模型了,打開train.py腳本,輸入data.yaml,default.yaml,yolo11.yaml路徑,如下代碼段所示:

from ultralytics import YOLO
import os

os.environ["KMP_DUPLICATE_LIB_OK"] = "TRUE"  # 程序報(bào)OMP: Hint This means...錯(cuò)誤時(shí)使用

if __name__ == '__main__':
    cfg = "./demo/voc2007/cfg/default.yaml"
    data = './demo/voc2007/cfg/data.yaml'
    weight = "./demo/voc2007/cfg/yolo11.yaml"  # pt 或 yolovx.yaml
    model = YOLO(weight)

    results = model.train(
        data=data,
        cfg=cfg
    )

執(zhí)行train.py訓(xùn)練腳本,開始模型訓(xùn)練,如下示意圖:

python train.py

wKgZPGf3cuiAfmk2AAEsWnBifbg932.png

注意,訓(xùn)練過程僅是為了演示流程,接下來模型預(yù)測(cè)和模型轉(zhuǎn)換的都是yolov11默認(rèn)的80類的模型。

2.5 PC端預(yù)測(cè)模型預(yù)測(cè)

訓(xùn)練完畢后,在default.yaml文件配置的project目錄下保存訓(xùn)練過程,經(jīng)驗(yàn)證集測(cè)試的最好結(jié)果的模型。同時(shí)可以執(zhí)行模型預(yù)測(cè),初步評(píng)估模型的效果。打開predict.py腳本,配置好模型地址和待檢測(cè)圖片,如下代碼段所示:

if __name__ == '__main__':
    random.seed(0)
    device_ = "cpu"
    imgsz = (640, 640)
    model_path = "./demo/weights/yolo11s.pt"
    img_path = "./demo/images/bus.jpg"
    is_dir = os.path.isdir(img_path)

    device = select_device(device_)
    model = YOLO(model_path)

    # 圖片預(yù)處理
    if is_dir:
        filenames = os.listdir(img_path)
        for idx, file in enumerate(filenames):
            img_file = os.path.join(img_path, file)
            im = cv2.imread(img_file)  # uint8 numpy array
            pre_img, ratio, padding = preprocess(im, device, imgsz)

            # 模型預(yù)測(cè)
            # pred = model.predict(pre_img, augment=False)[0]
            # im = draw_result(im, pred, ratio, padding)
            pred = model.predict(im, augment=False)[0]
            im = draw_result(im, pred)

            cv2.imshow("dst", im)
            cv2.waitKey()
    else:
        im = cv2.imread(img_path)  # uint8 numpy array
        pre_img, ratio, padding = preprocess(im, device, imgsz)

        # 模型預(yù)測(cè)
        # pred = model.predict(pre_img, augment=False)[0]
        # im = draw_result(im, pred, ratio, padding)
        pred = model.predict(im, augment=False)[0]
        im = draw_result(im, pred)

        cv2.imshow("dst", im)
        cv2.waitKey()

執(zhí)行腳本:

python predict.py

運(yùn)行腳本結(jié)果:

wKgZO2f3cuiADyojADmWRaGKWUM620.png

2.6 PT模型轉(zhuǎn)ONNX

在PC端執(zhí)行export.py將pt模型轉(zhuǎn)成onnx,如下代碼段所示:

from ultralytics import YOLO

if __name__ == '__main__':
    format = 'rknn' # 'torchscript', 'onnx', 'openvino', 'engine', 'coreml', 'saved_model', 'pb', 'tflite', 'edgetpu', 'tfjs', 'paddle', 'ncnn'
    weight = "./demo/weights/yolo11s.pt"  # pt 或 yolovx.yaml
    model = YOLO(weight)
    results = model.export(format = format)

3. rknn-toolkit模型轉(zhuǎn)換

3.1 rknn-toolkit模型轉(zhuǎn)換環(huán)境搭建

onnx模型需要轉(zhuǎn)換為rknn模型才能在EASY-EAI-Orin-nano運(yùn)行,所以需要先搭建rknn-toolkit模型轉(zhuǎn)換工具的環(huán)境。當(dāng)然tensorflow、tensroflow lite、caffe、darknet等也是通過類似的方法進(jìn)行模型轉(zhuǎn)換,只是本教程onnx為例。

3.1.1 概述

模型轉(zhuǎn)換環(huán)境搭建流程如下所示:

wKgZPGf3cumAPBVYAAAxiiEbB5I984.png

3.1.2 下載模型轉(zhuǎn)換工具

為了保證模型轉(zhuǎn)換工具順利運(yùn)行,請(qǐng)下載網(wǎng)盤里“06.AI算法開發(fā)/01.rknn-toolkit2模型轉(zhuǎn)換工具/rknn-toolkit2-v2.3.0/docker/rknn-toolkit2-v2.3.0-cp38-docker.tar.gz”。

網(wǎng)盤下載鏈接:https://pan.baidu.com/s/1J86chdq1klKFnpCO1RCcEA?pwd=1234提取碼:1234

3.1.3 把工具移到ubuntu20.04

把下載完成的docker鏡像移到我司的虛擬機(jī)ubuntu20.04的rknn-toolkit2目錄,如下圖所示:

wKgZO2f3cumAQnkDAACIUiaLuRs474.png

3.1.4 運(yùn)行模型轉(zhuǎn)換工具環(huán)境

在該目錄打開終端

wKgZPGf3cuqAewvGAAC3K-nNJbw878.png

執(zhí)行以下指令加載模型轉(zhuǎn)換工具docker鏡像:

docker load --input rknn-toolkit2-v2.3.0-cp38-docker.tar.gz

執(zhí)行以下指令進(jìn)入鏡像bash環(huán)境:

docker run -t -i --privileged -v /dev/bus/usb:/dev/bus/usb rknn-toolkit2:2.3.0-cp38 /bin/bash

現(xiàn)象如下圖所示:

wKgZO2f3cuqAeARuAABwE02CuRY380.png

輸入“python”加載python相關(guān)庫(kù),嘗試加載rknn庫(kù),如下圖環(huán)境測(cè)試成功:

wKgZPGf3cuqARwL8AACYXiExqnY753.png

至此,模型轉(zhuǎn)換工具環(huán)境搭建完成。

4. 模型轉(zhuǎn)換為RKNN

EASY EAI Orin-nano支持.rknn后綴的模型的評(píng)估及運(yùn)行,對(duì)于常見的tensorflow、tensroflow lite、caffe、darknet、onnx和Pytorch模型都可以通過我們提供的 toolkit 工具將其轉(zhuǎn)換至 rknn 模型,而對(duì)于其他框架訓(xùn)練出來的模型,也可以先將其轉(zhuǎn)至 onnx 模型再轉(zhuǎn)換為 rknn 模型。模型轉(zhuǎn)換操作流程入下圖所示:

wKgZO2f3cuqAApF7AADmstLlDDk819.png

4.1 模型轉(zhuǎn)換Demo下載

下載百度網(wǎng)盤鏈接:https://pan.baidu.com/s/1IiOeH15nYrNu8k1LkyFoVQ?pwd=1234 提取碼:1234。把 yolov11_model_convert.tar.bz2和quant_dataset.zip解壓到虛擬機(jī),如下圖所示:

wKgZPGf3cuuAOtYNAAC2-DW7MiM758.png

4.2 進(jìn)入模型轉(zhuǎn)換工具docker環(huán)境

執(zhí)行以下指令把工作區(qū)域映射進(jìn)docker鏡像,其中/home/developer/rknn-toolkit2/model_convert為工作區(qū)域,/test為映射到docker鏡像,/dev/bus/usb:/dev/bus/usb為映射usb到docker鏡像:

docker run -t -i --privileged -v /dev/bus/usb:/dev/bus/usb -v /home/developer/rknn-toolkit2/model_convert:/test rknn-toolkit2:2.3.0-cp38 /bin/bash

執(zhí)行成功如下圖所示:

wKgZO2f3cuuAevSxAAB8faQHBaA823.png

4.3 模型轉(zhuǎn)換操作說明

4.3.1 模型轉(zhuǎn)換Demo目錄結(jié)構(gòu)

模型轉(zhuǎn)換測(cè)試Demo由yolov11_model_convert和quant_dataset組成。yolov11_model_convert存放軟件腳本,quant_dataset存放量化模型所需的數(shù)據(jù)。如下圖所示:

wKgZPGf3cuuAPeisAAC6zGTwH5k490.png

Yolov11_model_convert文件夾存放以下內(nèi)容,如下圖所示:

wKgZO2f3cuuAZ3q9AADIn15tXC8858.png

4.3.2 生成量化圖片列表

在docker環(huán)境切換到模型轉(zhuǎn)換工作目錄:

cd /test/yolov11_model_convert

如下圖所示:

wKgZPGf3cuyAehRuAABzR4lfFZY374.png

執(zhí)行g(shù)en_list.py生成量化圖片列表:

python gen_list.py

命令行現(xiàn)象如下圖所示:

wKgZO2f3cuyAclaZAACDFbJL0Zc261.png

生成“量化圖片列表”如下文件夾所示:

wKgZPGf3cuyAXe2IAAChqu9kbGE500.png

4.3.3 onnx模型轉(zhuǎn)換為rknn模型

rknn_convert.py腳本默認(rèn)進(jìn)行int8量化操作,腳本代碼清單如下所示:

import sys
from rknn.api import RKNN

ONNX_MODEL = 'yolov11s.onnx'
DATASET = './pic_path.txt'
RKNN_MODEL = './yolov11s_rk3576.rknn'
QUANTIZE_ON = True


if __name__ == '__main__':

    # Create RKNN object
    rknn = RKNN(verbose=False)

    # Pre-process config
    print('--> Config model')
    rknn.config(mean_values=[[0, 0, 0]], std_values=[
                    [255, 255, 255]], target_platform='rk3576')
    print('done')

    # Load model
    print('--> Loading model')
    ret = rknn.load_onnx(model=ONNX_MODEL)
    if ret != 0:
        print('Load model failed!')
        exit(ret)
    print('done')

    # Build model
    print('--> Building model')
    ret = rknn.build(do_quantization=QUANTIZE_ON, dataset=DATASET)
    if ret != 0:
        print('Build model failed!')
        exit(ret)
    print('done')

    # Export rknn model
    print('--> Export rknn model')
    ret = rknn.export_rknn(RKNN_MODEL)
    if ret != 0:
        print('Export rknn model failed!')
        exit(ret)
    print('done')

    # Release
    rknn.release()

把onnx模型yolov11s.onnx放到y(tǒng)olov11_model_convert目錄(后續(xù)用戶使用自己的模型的時(shí)候,替換掉對(duì)應(yīng)的onnx即可),并執(zhí)行rknn_convert.py腳本進(jìn)行模型轉(zhuǎn)換:

python rknn_convert.py

生成模型如下圖所示,此模型可以在rknn環(huán)境和EASY EAI Orin-nano環(huán)境運(yùn)行:

wKgZO2f3cuyAbucIAAQ8k1qizqQ173.png

5. 模型部署示例

5.1 模型部署示例介紹

本小節(jié)展示yolo11模型的在EASY EAI Orin-nano的部署過程,本章章節(jié)使用的yolo11s.rknn模型的是由Ultralytics官方提供的yolo11s.pt轉(zhuǎn)換而來。

5.2 源碼下載以及例程編譯

下載yolo11 C Demo示例文件。

百度網(wǎng)盤鏈接: https://pan.baidu.com/s/1B5GSc48RjQmZijUDLhB1iA?pwd=1234 ,提取碼: 1234。

下載程序包移至ubuntu環(huán)境后,執(zhí)行以下指令解壓:

tar -xvf yolov11_detect_C_demo.tar.bz2

下載解壓后如下圖所示:

wKgZPGf3cu2ATV-yAACVDf2yBNE023.png

通過adb接口連接EASY-EAI-Orin-nano,,連接方式如下圖所示:

wKgZO2f3cu2APiz4ABPnfd1PZu8999.png

接下來需要通過adb把源碼傳輸?shù)桨蹇ㄉ?,先切換目錄然后執(zhí)行以下指令:

cd ~/rknn-toolkit2
adb push yolov11_detect_C_demo/ /userdata
wKgZPGf3cu2AQPy4AACOTfH1jpM343.png

登錄到板子切換到例程目錄執(zhí)行編譯操作:

adb shell
cd /userdata/yolov11_detect_C_demo
chmod 777 build.sh
./build.sh
wKgZO2f3cu6AE-o7AAGX17CVaAk473.png

5.3 開發(fā)板執(zhí)行yolov11目標(biāo)檢測(cè)算法

編譯成功后切換到可執(zhí)行程序目錄,如下所示:

cd /userdata/yolov11_detect_C_demo/yolov11_detect_demo_release

運(yùn)行例程命令如下所示:

chmod 777 yolov11_detect_demo
./yolov11_detect_demo yolov11s_rk3576.rknn bus.jpg

執(zhí)行結(jié)果如下圖所示,yolov11s算法執(zhí)行時(shí)間為47ms:

wKgZPGf3cu6AAZdFAAKGJajDcpc962.png

退出板卡環(huán)境,取回測(cè)試圖片:

exit
adb pull /userdata/yolov11_detect_C_demo/yolov11_detect_demo_release/results.jpg .

測(cè)試結(jié)果如下圖所示:

wKgZO2f3cu6ABqIcAAW1KhDHMlo337.jpg

至此,yolov11目標(biāo)檢測(cè)例程已成功在板卡運(yùn)行。

6. 資料下載

資料名稱 鏈接
算法訓(xùn)練部署教程完整源碼包 https://pan.baidu.com/s/1thi_fY37fQzKYMmHQ-g3Ag?pwd=1234
提取碼:1234


審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4682

    瀏覽量

    94350
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3464

    瀏覽量

    49821
  • 目標(biāo)檢測(cè)
    +關(guān)注

    關(guān)注

    0

    文章

    220

    瀏覽量

    15843
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    maixcam部署yolov5s 自定義模型

    maixcam部署yolov5s 自定義模型 本博客將向你展示零基礎(chǔ)一步步的部署好自己的yolov5s模型(博主展示的是安全帽模型),訓(xùn)練
    發(fā)表于 04-23 15:43

    請(qǐng)問如何在imx8mplus上部署和運(yùn)行YOLOv5訓(xùn)練的模型?

    我正在從事 imx8mplus yocto 項(xiàng)目。我已經(jīng)在自定義數(shù)據(jù)集上的 YOLOv5 上訓(xùn)練了對(duì)象檢測(cè)模型。它在 ubuntu 電腦上運(yùn)行良好?,F(xiàn)在我想在我的 imx8mplus 板上運(yùn)行該模型
    發(fā)表于 03-25 07:23

    使用YOLOv3訓(xùn)練BDD100K數(shù)據(jù)集之開始訓(xùn)練

    (三)使用YOLOv3訓(xùn)練BDD100K數(shù)據(jù)集之開始訓(xùn)練
    發(fā)表于 05-12 13:38

    【愛芯派 Pro 開發(fā)板試用體驗(yàn)】愛芯元智AX650N部署yolov8s 自定義模型

    愛芯元智AX650N部署yolov8s 自定義模型 本博客將向你展示零基礎(chǔ)一步步的部署好自己的yolov8s模型(博主展示的是自己訓(xùn)練的手
    發(fā)表于 11-24 20:40

    yolov5訓(xùn)練部署全鏈路教程

    本教程針對(duì)目標(biāo)檢測(cè)算法yolov5的訓(xùn)練部署到EASY-EAI-Nano(RV1126)進(jìn)行說明。
    的頭像 發(fā)表于 01-05 18:00 ?3558次閱讀
    <b class='flag-5'>yolov</b>5<b class='flag-5'>訓(xùn)練</b><b class='flag-5'>部署</b>全鏈路教程

    在C++中使用OpenVINO工具包部署YOLOv5模型

    下載并轉(zhuǎn)換YOLOv5預(yù)訓(xùn)練模型的詳細(xì)步驟,請(qǐng)參考:《基于OpenVINO?2022.2和蝰蛇峽谷優(yōu)化并部署YOLOv5模型》,本文所使用的OpenVINO是2022.3 LTS版。
    的頭像 發(fā)表于 02-15 16:53 ?6782次閱讀

    【教程】yolov5訓(xùn)練部署全鏈路教程

    本教程針對(duì)目標(biāo)檢測(cè)算法yolov5的訓(xùn)練部署到EASY-EAI-Nano(RV1126)進(jìn)行說明,而數(shù)據(jù)標(biāo)注方法可以參考我們往期的文章《Labelimg的安裝與使用》。
    的頭像 發(fā)表于 01-29 15:25 ?3955次閱讀
    【教程】<b class='flag-5'>yolov</b>5<b class='flag-5'>訓(xùn)練</b><b class='flag-5'>部署</b>全鏈路教程

    使用OpenVINO優(yōu)化并部署訓(xùn)練好的YOLOv7模型

    在《英特爾銳炫 顯卡+ oneAPI 和 OpenVINO 實(shí)現(xiàn)英特爾 視頻 AI 計(jì)算盒訓(xùn)推一體-上篇》一文中,我們?cè)敿?xì)介紹基于英特爾 獨(dú)立顯卡搭建 YOLOv7 模型的訓(xùn)練環(huán)境,并完成了 YOLOv7 模型
    的頭像 發(fā)表于 08-25 11:08 ?1825次閱讀
    使用OpenVINO優(yōu)化并<b class='flag-5'>部署</b><b class='flag-5'>訓(xùn)練</b>好的<b class='flag-5'>YOLOv</b>7模型

    YOLOv8實(shí)現(xiàn)任意目錄下命令行訓(xùn)練

    當(dāng)你使用YOLOv8命令行訓(xùn)練模型的時(shí)候,如果當(dāng)前執(zhí)行的目錄下沒有相關(guān)的預(yù)訓(xùn)練模型文件,YOLOv8就會(huì)自動(dòng)下載模型權(quán)重文件。這個(gè)是一個(gè)正常操作,但是你還會(huì)發(fā)現(xiàn),當(dāng)你在參數(shù)model中
    的頭像 發(fā)表于 09-04 10:50 ?1356次閱讀
    <b class='flag-5'>YOLOv</b>8實(shí)現(xiàn)任意目錄下命令行<b class='flag-5'>訓(xùn)練</b>

    RK3576 yolov8訓(xùn)練部署教程

    本章展示yolov8模型的在EASY EAI Orin nano的部署過程。
    的頭像 發(fā)表于 04-02 16:04 ?231次閱讀
    RK3576 <b class='flag-5'>yolov</b>8<b class='flag-5'>訓(xùn)練</b><b class='flag-5'>部署</b>教程

    RK3576 Yolov11訓(xùn)練部署教程

    YOLO11 系列是 YOLO 家族中最先進(jìn)的 (SOTA)、最輕量級(jí)、最高效的模型,其表現(xiàn)優(yōu)于其前輩。它由 Ultralytics 創(chuàng)建,該組織發(fā)布了 YOLOv8,這是迄今為止最穩(wěn)定、使用最廣泛的 YOLO 變體。YOLO11
    的頭像 發(fā)表于 04-03 09:35 ?435次閱讀
    RK3576 <b class='flag-5'>Yolov11</b><b class='flag-5'>訓(xùn)練</b><b class='flag-5'>部署</b>教程

    ORinNano離線部署Deepseek R1大模型教程

    ORinNano離線部署Deepseek R1大模型教程
    的頭像 發(fā)表于 04-10 15:32 ?179次閱讀
    <b class='flag-5'>ORinNano</b>離線<b class='flag-5'>部署</b>Deepseek R1大模型教程

    RK3576 yolov11-seg訓(xùn)練部署教程

    級(jí)的精確目標(biāo)檢測(cè)與分割,適用于自動(dòng)駕駛、醫(yī)學(xué)影像、工業(yè)檢測(cè)等對(duì)精度和速度要求苛刻的場(chǎng)景。 ? ? ? ?本教程針對(duì)目標(biāo)分割算法yolov11 seg的訓(xùn)練部署到EASY-EAI-Orin-nano(RK3576)進(jìn)行說明,而
    的頭像 發(fā)表于 04-16 09:43 ?285次閱讀
    RK3576 <b class='flag-5'>yolov11</b>-seg<b class='flag-5'>訓(xùn)練</b><b class='flag-5'>部署</b>教程

    RV1126 yolov8訓(xùn)練部署教程

    YOLOv8 是 ultralytics 公司在 2023 年 1月 10 號(hào)開源的基于YOLOV5進(jìn)行更新的 下一個(gè)重大更新版本,目前支持圖像分類、物體檢測(cè)和實(shí)例分割任務(wù),鑒于Yolov5的良好表現(xiàn),
    的頭像 發(fā)表于 04-16 14:53 ?195次閱讀
    RV1126 <b class='flag-5'>yolov</b>8<b class='flag-5'>訓(xùn)練</b><b class='flag-5'>部署</b>教程

    RV1126 yolov8訓(xùn)練部署教程

    本教程針對(duì)目標(biāo)檢測(cè)算法yolov8的訓(xùn)練部署到EASY-EAI-Nano(RV1126)進(jìn)行說明,而數(shù)據(jù)標(biāo)注方法可以參考我們往期的文章。
    的頭像 發(fā)表于 04-18 15:18 ?284次閱讀
    RV1126 <b class='flag-5'>yolov</b>8<b class='flag-5'>訓(xùn)練</b><b class='flag-5'>部署</b>教程