一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

細(xì)粒度圖像識別深度學(xué)習(xí)開源工具庫Hawkeye解析

新機(jī)器視覺 ? 來源:機(jī)器之心 ? 作者:機(jī)器之心 ? 2022-11-06 20:26 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

細(xì)粒度圖像識別是視覺感知學(xué)習(xí)的重要研究課題,在智能新經(jīng)濟(jì)和工業(yè)互聯(lián)網(wǎng)等方面具有巨大應(yīng)用價值,且在諸多現(xiàn)實場景已有廣泛應(yīng)用…… 鑒于當(dāng)前領(lǐng)域內(nèi)尚缺乏該方面的深度學(xué)習(xí)開源工具庫,南京理工大學(xué)魏秀參教授團(tuán)隊用時近一年時間,開發(fā)、打磨、完成了 Hawkeye——細(xì)粒度圖像識別深度學(xué)習(xí)開源工具庫,供相關(guān)領(lǐng)域研究人員和工程師參考使用。本文是對 Hawkeye 的詳細(xì)介紹。

目錄

1. 什么是 Hawkeye 庫

2. Hawkeye 支持的模型及方法

3. 安裝 Hawkeye

4. 使用 Hawkeye 訓(xùn)練模型

1. 什么是 Hawkeye 庫

Hawkeye 是一個基于 PyTorch 的細(xì)粒度圖像識別深度學(xué)習(xí)工具庫,專為相關(guān)領(lǐng)域研究人員和工程師設(shè)計。目前,Hawkeye 包含多種代表性范式的細(xì)粒度識別方法,包括 “基于深度濾波器”、“基于注意力機(jī)制”、“基于高階特征交互”、“基于特殊損失函數(shù)”、“基于網(wǎng)絡(luò)數(shù)據(jù)” 以及其他方法。

Hawkeye 項目代碼風(fēng)格良好,結(jié)構(gòu)清晰易讀,可拓展性較強(qiáng)。對于剛接觸細(xì)粒度圖像識別領(lǐng)域的相關(guān)人員而言,Hawkeye 較易上手,便于其理解細(xì)粒度圖像識別的主要流程和代表性方法,同時也方便在本工具庫上快速實現(xiàn)自己的算法。此外,我們還給出了庫中各模型的訓(xùn)練示例代碼,自研方法也可按照示例快速適配并添加至 Hawkeye 中。

Hawkeye 開源庫鏈接:https://github.com/Hawkeye-FineGrained/Hawkeye

2. Hawkeye 支持的模型及方法

Hawkeye 目前支持細(xì)粒度圖像識別中主要學(xué)習(xí)范式的共 16 個模型與方法,具體如下:

基于深度濾波器

S3N (ICCV 2019)

Interp-Parts (CVPR 2020)

ProtoTree (CVPR 2021)

基于注意力機(jī)制

OSME+MAMC (ECCV 2018)

MGE-CNN (ICCV 2019)

APCNN (IEEE TIP 2021)

基于高階特征交互

BCNN (ICCV 2015)

CBCNN (CVPR 2016)

Fast MPN-COV (CVPR 2018)

基于特殊損失函數(shù)

Pairwise Confusion (ECCV 2018)

API-Net (AAAI 2020)

CIN (AAAI 2020)

基于網(wǎng)絡(luò)數(shù)據(jù)

Peer-Learning (ICCV 2021)

其他方法

NTS-Net (ECCV 2018)

CrossX (ICCV 2019)

DCL (CVPR 2019)

3. 安裝 Hawkeye

安裝依賴

使用 conda 或者 pip 安裝相關(guān)依賴:

Python 3.8

PyTorch 1.11.0 or higher

torchvison 0.12.0 or higher

numpy

yacs

tqdm

克隆倉庫:

git clone https://github.com/Hawkeye-FineGrained/Hawkeye.git

cd Hawkeye

準(zhǔn)備數(shù)據(jù)集

首先,下載一個數(shù)據(jù)集(以 CUB200 為例):

cd Hawkeye/data

wget https://data.caltech.edu/records/65de6-vp158/files/CUB_200_2011.tgz

mkdir bird && tar -xvf CUB_200_2011.tgz -C bird/

我們提供了上述 8 個數(shù)據(jù)集的 meta-data 文件,能夠匹配庫中的 FGDataset 方便地加載訓(xùn)練集和測試集,訓(xùn)練集和測試集為各個數(shù)據(jù)集官方提供的劃分。使用不同數(shù)據(jù)集時,只需在實驗的 config 文件中修改 dataset 配置即可,方便切換。

在實驗的 config 文件中修改 dataset 配置,示例如下:

dataset:

name: cub

root_dir: data/bird/CUB_200_2011/images

meta_dir: metadata/cub

4. 使用 Hawkeye 訓(xùn)練模型

對于 Hawkeye 支持的每個方法,我們均提供了單獨的訓(xùn)練模板和配置文件。例如訓(xùn)練 APINet 只需一條命令:

python Examples/APINet.py --config configs/APINet.yaml

實驗的參數(shù)都在相應(yīng)的 yaml 文件中,可讀性高、便于修改,如:

experiment:
name: API_res101 2        # 實驗名稱
  log_dir: results/APINet   # 實驗日志、結(jié)果等的輸出目錄
  seed: 42                  # 可以選擇固定的隨機(jī)數(shù)種子
#  resume: results/APINet/API_res101 2/checkpoint_epoch_19.pth    # 可以從訓(xùn)練中斷的 checkpoint 中恢復(fù)訓(xùn)練
dataset:
  name: cub          # 使用 CUB200 數(shù)據(jù)集
  root_dir: data/bird/CUB_200_2011/images   # 數(shù)據(jù)集中圖像放置的路徑
  meta_dir: metadata/cub                  # CUB200 的 metadata 路徑
  n_classes: 10         # 類別數(shù),APINet 需要的數(shù)據(jù)集
  n_samples: 4          # 每個類別的樣本數(shù)
  batch_size: 24        # 測試時的批樣本數(shù)
  num_workers: 4      # Dataloader 加載數(shù)據(jù)集的線程數(shù)
  transformer:        # 數(shù)據(jù)增強(qiáng)的參數(shù)配置
    image_size: 224      # 圖像輸入模型的尺寸 224x224
    resize_size: 256    # 圖像增強(qiáng)前縮放的尺寸 256x256
model:
  name: APINet        # 使用 APINet 模型,見 `model/methods/APINet.py`
  num_classes: 200      # 類別數(shù)目
#  load: results/APINet/API_res101 1/best_model.pth     # 可以加載訓(xùn)練過的模型參數(shù)
train:
  cuda: [4]          # 使用的 GPU 設(shè)備 ID 列表,[] 時使用 CPU
  epoch: 100        # 訓(xùn)練的 epoch 數(shù)量
  save_frequence: 10    # 自動保存模型的頻率
#  val_first: False      # 可選是否在訓(xùn)練前進(jìn)行一次模型精度的測試
  optimizer:
    name: Adam        # 使用 Adam 優(yōu)化器
    lr: 0.0001        # 學(xué)習(xí)率為 0.0001
    weight_decay: 0.00000002
  scheduler:
    # 本例使用自定義組合的 scheduler,由 warmup 和余弦退火學(xué)習(xí)率組合而成,見 `Examples/APINet.py`
    name: ''
    T_max: 100        # scheduler 的總迭代次數(shù)
    warmup_epochs: 8    # warmup 的 epoch 數(shù)
    lr_warmup_decay: 0.01  # warmup 衰減的比例
  criterion:
    name: APINetLoss    # APINet 使用的損失函數(shù),見 `model/loss/APINet_loss.py`

實驗的主程序 Examples/APINet.py 中的訓(xùn)練器 APINetTrainer 繼承自 Trainer,不需要再寫復(fù)雜的訓(xùn)練流程、logger、模型保存、配置加載等代碼,只用按需修改部分模塊即可。我們也提供了訓(xùn)練階段的多個 hook 鉤子,可以滿足一些方法特別的實現(xiàn)方式。

日志文件、模型權(quán)重文件、訓(xùn)練使用的訓(xùn)練代碼以及當(dāng)時的配置文件都會保存在實驗輸出目錄 log_dir 中,備份配置和訓(xùn)練代碼便于日后對不同實驗進(jìn)行對比。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 代碼
    +關(guān)注

    關(guān)注

    30

    文章

    4900

    瀏覽量

    70765
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5561

    瀏覽量

    122805

原文標(biāo)題:基于PyTorch、易上手,細(xì)粒度圖像識別深度學(xué)習(xí)工具庫Hawkeye開源

文章出處:【微信號:vision263com,微信公眾號:新機(jī)器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    【高云GW5AT-LV60 開發(fā)套件試用體驗】基于開發(fā)板進(jìn)行深度學(xué)習(xí)實踐,并盡量實現(xiàn)皮膚病理圖片的識別

    收到開發(fā)板已經(jīng)有一段時間了,最初申請的時候?qū)懙氖窍M軌驅(qū)崿F(xiàn)基于fpga的圖像識別相關(guān)的項目,最初對這個還是有些模糊的,不過這幾天折騰下來,似乎有點思路了,但是畢竟基礎(chǔ)還是有點薄弱,所以廢話不多
    發(fā)表于 06-11 22:35

    【免費工具】華秋AI電路識別助手:讓電路設(shè)計與分析變得輕松高效!

    基于人工智能技術(shù)開發(fā)的微信小程序,通過先進(jìn)的圖像識別技術(shù)和深度學(xué)習(xí)算法,快速準(zhǔn)確識別電路圖中的元件和電路功能,并提供詳細(xì)的分析報告。無論是原理圖、PCB還是產(chǎn)品實物,都
    的頭像 發(fā)表于 06-05 18:18 ?466次閱讀
    【免費<b class='flag-5'>工具</b>】華秋AI電路<b class='flag-5'>識別</b>助手:讓電路設(shè)計與分析變得輕松高效!

    手持終端集裝箱識別系統(tǒng)的圖像識別技術(shù)

    行業(yè)提供了更靈活、精準(zhǔn)的管理工具。 一、技術(shù)核心:OCR+AI深度融合 現(xiàn)代手持終端系統(tǒng)采用多模態(tài)圖像識別技術(shù),結(jié)合深度學(xué)習(xí)算法,可快速捕捉
    的頭像 發(fā)表于 04-03 10:49 ?298次閱讀

    DeepSeek宣布開源DeepGEMM

    DeepGEMM 是一個專為簡潔高效的 FP8 通用矩陣乘法(GEMM)設(shè)計的,具有細(xì)粒度縮放功能,在Deepseek開源周的第三天Deepseek正式宣布開源DeepGEMM。 據(jù)
    的頭像 發(fā)表于 02-26 15:33 ?896次閱讀

    SLAMTEC Aurora:把深度學(xué)習(xí)“卷”進(jìn)機(jī)器人日常

    在人工智能和機(jī)器人技術(shù)飛速發(fā)展的今天,深度學(xué)習(xí)與SLAM(同步定位與地圖構(gòu)建)技術(shù)的結(jié)合,正引領(lǐng)著智能機(jī)器人行業(yè)邁向新的高度。最近科技圈頂流DeepSeek簡直殺瘋了!靠著逆天的深度學(xué)習(xí)
    的頭像 發(fā)表于 02-19 15:49 ?461次閱讀

    DevEco Studio構(gòu)建分析工具Build Analyzer 為原生鴻蒙應(yīng)用開發(fā)提速

    分析不同構(gòu)建階段的性能差異,進(jìn)一步優(yōu)化構(gòu)建流程。 Build Analyzer作為一款強(qiáng)大的構(gòu)建分析工具,為原生鴻蒙應(yīng)用開發(fā)者提供了從任務(wù)追蹤到性能優(yōu)化的全方位支持。通過其細(xì)粒度的分析和直觀的可視化
    發(fā)表于 02-17 18:06

    BP神經(jīng)網(wǎng)絡(luò)在圖像識別中的應(yīng)用

    BP神經(jīng)網(wǎng)絡(luò)在圖像識別中發(fā)揮著重要作用,其多層結(jié)構(gòu)使得網(wǎng)絡(luò)能夠學(xué)習(xí)到復(fù)雜的特征表達(dá),適用于處理非線性問題。以下是對BP神經(jīng)網(wǎng)絡(luò)在圖像識別中應(yīng)用的分析: 一、BP神經(jīng)網(wǎng)絡(luò)基本原理 BP神經(jīng)網(wǎng)絡(luò),即反向
    的頭像 發(fā)表于 02-12 15:12 ?682次閱讀

    深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)模型

    深度學(xué)習(xí)近年來在多個領(lǐng)域取得了顯著的進(jìn)展,尤其是在圖像識別、語音識別和自然語言處理等方面。卷積神經(jīng)網(wǎng)絡(luò)作為深度
    的頭像 發(fā)表于 11-15 14:52 ?847次閱讀

    Perforce Helix Core通過ISO 26262認(rèn)證!為汽車軟件開發(fā)團(tuán)隊提供無限可擴(kuò)展性、細(xì)粒度安全性、文件快速訪問等

    News!Helix Core通過ISO 26262認(rèn)證,符合汽車系統(tǒng)開發(fā)所需的安全和可靠性標(biāo)準(zhǔn),助力汽車軟件安全合規(guī)!具備無限可擴(kuò)展性、細(xì)粒度安全性、文件快速訪問...是眾多汽車OEM和供應(yīng)商的首選版本控制工具。
    的頭像 發(fā)表于 11-12 14:41 ?1243次閱讀
    Perforce Helix Core通過ISO 26262認(rèn)證!為汽車軟件開發(fā)團(tuán)隊提供無限可擴(kuò)展性、<b class='flag-5'>細(xì)粒度</b>安全性、文件快速訪問等

    AI圖像識別攝像機(jī)

    ?AI圖像識別攝像機(jī)是一種集成了先進(jìn)算法和深度學(xué)習(xí)模型的智能監(jiān)控設(shè)備。這些攝像機(jī)不僅能夠捕捉視頻畫面,還能實時分析和處理所拍攝的內(nèi)容,從而實現(xiàn)對特定對象、場景或行
    的頭像 發(fā)表于 11-08 10:38 ?877次閱讀
    AI<b class='flag-5'>圖像識別</b>攝像機(jī)

    GPU深度學(xué)習(xí)應(yīng)用案例

    GPU在深度學(xué)習(xí)中的應(yīng)用廣泛且重要,以下是一些GPU深度學(xué)習(xí)應(yīng)用案例: 一、圖像識別 圖像識別
    的頭像 發(fā)表于 10-27 11:13 ?1384次閱讀

    激光雷達(dá)技術(shù)的基于深度學(xué)習(xí)的進(jìn)步

    信息。這使得激光雷達(dá)在自動駕駛、無人機(jī)、機(jī)器人等領(lǐng)域具有廣泛的應(yīng)用前景。 二、深度學(xué)習(xí)技術(shù)的發(fā)展 深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個分支,它通過模擬人
    的頭像 發(fā)表于 10-27 10:57 ?1073次閱讀

    AI大模型在圖像識別中的優(yōu)勢

    AI大模型在圖像識別中展現(xiàn)出了顯著的優(yōu)勢,這些優(yōu)勢主要源于其強(qiáng)大的計算能力、深度學(xué)習(xí)算法以及大規(guī)模的數(shù)據(jù)處理能力。以下是對AI大模型在圖像識別中優(yōu)勢的介紹: 一、高效性與準(zhǔn)確性 處理速
    的頭像 發(fā)表于 10-23 15:01 ?2445次閱讀

    【飛凌嵌入式OK3576-C開發(fā)板體驗】RKNPU圖像識別測試

    高性能的同時,還注重功耗控制,適用于對功耗有嚴(yán)格要求的設(shè)備。 多框架支持 :RKNPU支持多種流行的深度學(xué)習(xí)框架,如TensorFlow、PyTorch、Caffe等,為開發(fā)者提供豐富的工具
    發(fā)表于 10-10 09:27

    深度識別算法包括哪些內(nèi)容

    :CNN是深度學(xué)習(xí)中處理圖像和視頻等具有網(wǎng)格結(jié)構(gòu)數(shù)據(jù)的主要算法。它通過卷積層、池化層和全連接層等組件,實現(xiàn)對圖像特征的自動提取和識別。 應(yīng)
    的頭像 發(fā)表于 09-10 15:28 ?844次閱讀