一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Pytorch Hub兩行代碼搞定YOLOv5推理

OpenCV學(xué)堂 ? 來(lái)源:OpenCV學(xué)堂 ? 2023-06-09 11:36 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

Pytorch Hub介紹

Pytorch Hub是一個(gè)幫助研究者實(shí)現(xiàn)模型再現(xiàn)、快速推理驗(yàn)證的預(yù)訓(xùn)練模型庫(kù)與一套相關(guān)的API框架。支持遠(yuǎn)程從github上下載指定模型、上傳與分享訓(xùn)練好的模型、支持從本地加載預(yù)訓(xùn)練模型、自定義模型。支持模型遠(yuǎn)程加載與本地推理、當(dāng)前Pytorch Hub已經(jīng)對(duì)接到Torchvision、YOLOv5、YOLOv8、pytorchvideo等視覺(jué)框架

支持一鍵遠(yuǎn)程加載各種模型,主要包括

5709c418-05dc-11ee-962d-dac502259ad0.png

支持根據(jù)URL下載指定模型到本地文件夾

57179a48-05dc-11ee-962d-dac502259ad0.png

YOLOv5支持

首先需要安裝下面的依賴(lài)包支持

pip install -r https://raw.githubusercontent.com/ultralytics/yolov5/master/requirements.txt
這個(gè)時(shí)候不需要再把YOLOv5的代碼拉取到本地了,兩行代碼即可實(shí)現(xiàn)YOLOv5模型的推理,直接運(yùn)行下面的代碼即可:

5721b4a6-05dc-11ee-962d-dac502259ad0.png


支持多張圖像推理:

5749d31e-05dc-11ee-962d-dac502259ad0.png

支持本地自定義對(duì)象檢測(cè)模型推理:

575702aa-05dc-11ee-962d-dac502259ad0.png


支持多個(gè)GPU推理模式

5778d95c-05dc-11ee-962d-dac502259ad0.png

不同設(shè)備之間切換支持

5786ffc8-05dc-11ee-962d-dac502259ad0.png

推理參數(shù)支持設(shè)置

57946a28-05dc-11ee-962d-dac502259ad0.png

相關(guān)源碼貼圖如下:

importtorch
importcv2ascv

#loadimagedata
img="data/images/zidane.jpg"

#加載本地預(yù)訓(xùn)練模型
model=torch.hub.load(repo_or_dir='D:/python/yolov5-7.0-attention/',model='yolov5s',source='local')

#loadimage
#img="D:/bird_test/test004.png"

#加載本地自定義模型
#model=torch.hub.load('D:/python/yolov5-7.0-attention/','custom',path='uav_bird.pt',source='local')
results=model(img)

#顯示
frame=results.render()[0]
bgr=cv.cvtColor(frame,cv.COLOR_RGB2BGR)
cv.imshow("PytorchHub+YOLOv5CustomObjectDetection",bgr)
cv.waitKey(0)


審核編輯:湯梓紅

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • API
    API
    +關(guān)注

    關(guān)注

    2

    文章

    1600

    瀏覽量

    63977
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3516

    瀏覽量

    50368
  • 代碼
    +關(guān)注

    關(guān)注

    30

    文章

    4899

    瀏覽量

    70658
  • GitHub
    +關(guān)注

    關(guān)注

    3

    文章

    483

    瀏覽量

    17655
  • pytorch
    +關(guān)注

    關(guān)注

    2

    文章

    809

    瀏覽量

    13935

原文標(biāo)題:Pytorch Hub 兩行代碼搞定YOLOv5推理

文章出處:【微信號(hào):CVSCHOOL,微信公眾號(hào):OpenCV學(xué)堂】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    YOLOv5】LabVIEW+YOLOv5快速實(shí)現(xiàn)實(shí)時(shí)物體識(shí)別(Object Detection)含源碼

    前面我們給大家介紹了基于LabVIEW+YOLOv3/YOLOv4的物體識(shí)別(對(duì)象檢測(cè)),今天接著上次的內(nèi)容再來(lái)看看YOLOv5。本次主要是和大家分享使用LabVIEW快速實(shí)現(xiàn)yolov5
    的頭像 發(fā)表于 03-13 16:01 ?2601次閱讀

    Yolov5算法解讀

    ,這幾個(gè)模型的結(jié)構(gòu)基本一樣,不同的是depth_multiple模型深度和width_multiple模型寬度這個(gè)參數(shù)。 yolov5主要分為輸入端,backbone,Neck,和head
    的頭像 發(fā)表于 05-17 16:38 ?1.3w次閱讀
    <b class='flag-5'>Yolov5</b>算法解讀

    YOLOv5】LabVIEW+TensorRT的yolov5部署實(shí)戰(zhàn)(含源碼)

    今天主要和大家分享在LabVIEW中使用純TensoRT工具包快速部署并實(shí)現(xiàn)yolov5的物體識(shí)別
    的頭像 發(fā)表于 08-21 22:20 ?1731次閱讀
    【<b class='flag-5'>YOLOv5</b>】LabVIEW+TensorRT的<b class='flag-5'>yolov5</b>部署實(shí)戰(zhàn)(含源碼)

    YOLOv5類(lèi)中rgb888p_size這個(gè)參數(shù)要與模型推理和訓(xùn)練的尺寸一致嗎?一致會(huì)達(dá)到更好的效果?

    YOLOv5類(lèi)中rgb888p_size這個(gè)參數(shù)要與模型推理和訓(xùn)練的尺寸一致嗎,一致會(huì)達(dá)到更好的效果
    發(fā)表于 03-11 08:12

    在K230上部署yolov5時(shí) 出現(xiàn)the array is too big的原因?

    重現(xiàn)步驟 1將yolov5的kmodel放入k230的data數(shù)據(jù) 2使用yolo大作戰(zhàn)里的視頻流推理代碼 3運(yùn)行 期待結(jié)果和實(shí)際結(jié)果 期待的結(jié)果 將目標(biāo)檢測(cè)的框圈起來(lái) 實(shí)際看到的結(jié)果
    發(fā)表于 05-28 07:47

    龍哥手把手教你學(xué)視覺(jué)-深度學(xué)習(xí)YOLOV5

    學(xué)到labview封裝yolov5(龍哥獨(dú)家封裝的cpu加速)函數(shù)庫(kù)vi。13.掌握l(shuí)abview調(diào)用yolov5模型對(duì)圖片進(jìn)行推理檢測(cè)14.掌握l(shuí)abview調(diào)用yolov5模型對(duì)
    發(fā)表于 09-03 09:39

    怎樣使用PyTorch Hub去加載YOLOv5模型

    PyTorch Hub 加載預(yù)訓(xùn)練的 YOLOv5s 模型,model并傳遞圖像進(jìn)行推理。'yolov5s'是最輕最快的
    發(fā)表于 07-22 16:02

    使用Yolov5 - i.MX8MP進(jìn)行NPU錯(cuò)誤檢測(cè)是什么原因?

    tflite --int8我還嘗試過(guò) TFlite 集線器模型,如 SSD 和 mobilenet,它們已經(jīng)轉(zhuǎn)換為 uint8。 在附件中,我用于推理和轉(zhuǎn)換后的 yolov5n 模型的代碼片段。 這可能是什么原因?
    發(fā)表于 03-31 07:38

    如何YOLOv5測(cè)試代碼

    使用文檔“使用 YOLOv5 進(jìn)行對(duì)象檢測(cè)”我試圖從文檔第 10 頁(yè)訪問(wèn)以下鏈接(在 i.MX8MP 上部署 yolov5s 的步驟 - NXP 社區(qū)) ...但是這樣做時(shí)會(huì)被拒絕訪問(wèn)。該文檔沒(méi)有說(shuō)明需要特殊許可才能下載 test.zip 文件。NXP 的人可以提供有關(guān)如
    發(fā)表于 05-18 06:08

    yolov5模型onnx轉(zhuǎn)bmodel無(wú)法識(shí)別出結(jié)果如何解決?

    推理硬件:質(zhì)算盒SE5,芯片BM1684。 2. SDK: v2.7.0 代碼: 1. 模型來(lái)源yolov5官方:https://github.com/ultralytics/
    發(fā)表于 09-15 07:30

    YOLOv5在OpenCV上的推理程序

    YOLOv5官方給出的YOLOv5在OpenCV上推理的程序相對(duì)來(lái)說(shuō)是比較通俗易懂的,條理清晰,有基本的封裝,直接可用!但是我也發(fā)現(xiàn),模型的推理時(shí)間跟前后處理的時(shí)間相差無(wú)幾,特別是當(dāng)視
    的頭像 發(fā)表于 11-02 10:16 ?2410次閱讀

    兩行代碼中的樹(shù)莓派電源開(kāi)關(guān)

    電子發(fā)燒友網(wǎng)站提供《兩行代碼中的樹(shù)莓派電源開(kāi)關(guān).zip》資料免費(fèi)下載
    發(fā)表于 12-28 09:26 ?0次下載
    <b class='flag-5'>兩行</b><b class='flag-5'>代碼</b>中的樹(shù)莓派電源開(kāi)關(guān)

    使用旭日X3派的BPU部署Yolov5

    本次主要介紹在旭日x3的BPU中部署yolov5。首先在ubuntu20.04安裝yolov5,并運(yùn)行yolov5并使用pytoch的pt模型文件轉(zhuǎn)ONNX。
    的頭像 發(fā)表于 04-26 14:20 ?1333次閱讀
    使用旭日X3派的BPU部署<b class='flag-5'>Yolov5</b>

    教你如何用兩行代碼搞定YOLOv8各種模型推理

    大家好,YOLOv8 框架本身提供的API函數(shù)是可以兩行代碼實(shí)現(xiàn) YOLOv8 模型推理,這次我把這段
    的頭像 發(fā)表于 06-18 11:50 ?3738次閱讀
    教你如何用<b class='flag-5'>兩行</b><b class='flag-5'>代碼</b><b class='flag-5'>搞定</b><b class='flag-5'>YOLOv</b>8各種模型<b class='flag-5'>推理</b>

    yolov5和YOLOX正負(fù)樣本分配策略

    整體上在正負(fù)樣本分配中,yolov7的策略算是yolov5和YOLOX的結(jié)合。因此本文先從yolov5和YOLOX正負(fù)樣本分配策略分析入手,后引入到YOLOv7的解析中。
    發(fā)表于 08-14 11:45 ?2680次閱讀
    <b class='flag-5'>yolov5</b>和YOLOX正負(fù)樣本分配策略