一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

YOLOv8中的損失函數(shù)解析

新機器視覺 ? 來源:小白玩轉(zhuǎn)python ? 2024-11-05 17:15 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

來源:小白玩轉(zhuǎn)python

介紹

YOLO長期以來一直是目標檢測任務的首選模型之一。它既快速又準確。此外,其API簡潔易用。運行訓練或推斷作業(yè)所需的代碼行數(shù)有限。在2023年下半年,YOLOv8在框架中引入了姿態(tài)估計后,該框架現(xiàn)在支持最多四個任務,包括分類、目標檢測、實例分割和姿態(tài)估計。

ec19b69a-90b3-11ef-a511-92fbcf53809c.png

在本文中,我們將詳細介紹YOLOv8中使用的五個損失函數(shù)。請注意,我們將僅討論YOLOv8倉庫中配置的默認損失函數(shù)。此外,我們還將僅關(guān)注代表性參數(shù),跳過一些標量和常數(shù)以進行歸一化或縮放,以便更好地理解。YOLOv8中對應的任務和損失函數(shù)可見于圖1。接下來我們將分別對每一個進行討論。

IoU損失

ec490b52-90b3-11ef-a511-92fbcf53809c.png

cw = b1_x2.maximum(b2_x2) - b1_x1.minimum(b2_x1)  # convex (smallest enclosing box) width
ch = b1_y2.maximum(b2_y2) - b1_y1.minimum(b2_y1)  # convex height


if CIoU or DIoU:  # Distance or Complete IoU https://arxiv.org/abs/1911.08287v1
  c2 = cw ** 2 + ch ** 2 + eps  # convex diagonal squared
  rho2 = ((b2_x1 + b2_x2 - b1_x1 - b1_x2) ** 2 + (b2_y1 + b2_y2 - b1_y1 - b1_y2) ** 2) / 4  # center dist ** 2
  
  if CIoU:  # https://github.com/Zzh-tju/DIoU-SSD-pytorch/blob/master/utils/box/box_utils.py#L47
     v = (4 / math.pi ** 2) * (torch.atan(w2 / h2) - torch.atan(w1 / h1)).pow(2)
     with torch.no_grad():
       alpha = v / (v - iou + (1 + eps))
     return iou - (rho2 / c2 + v * alpha)  # CIoU

當考慮評估邊界框準確度的方式時,交并比(IoU)指標可能是大多數(shù)人首先想到的一個指標。IoU度量了預測的邊界框與實際邊界框之間的重疊程度。它也可以作為一個損失函數(shù),只需將IoU轉(zhuǎn)換為1-IoU。

在YOLOv8中,修訂后的版本,完全IoU(CIoU)1被應用于衡量預測邊界框與實際邊界框之間的差異。CIoU是一個綜合性指標,它考慮了邊界框之間的三個屬性:

重疊比

中心點之間的距離

長寬比

CIoU的方程可在圖2右側(cè)找到。重疊比、中心點距離和長寬比這三個因素分別由方程中的各項表示。方程中涉及的關(guān)鍵參數(shù)在左側(cè)的圖中進行了說明,其中p和g表示預測和實際情況,b、w和h分別是相應邊界框的中心、寬度和高度。參數(shù)c是包圍邊界框的對角線(灰色虛線矩形)而ρ是歐氏距離。除了分類任務外,IoU損失在YOLOv8中的所有其他任務中都會應用。

分布焦點損失(DFL)

def _df_loss(pred_dist, target):
    """Return sum of left and right DFL losses."""
    # Distribution Focal Loss (DFL) proposed in Generalized Focal Loss https://ieeexplore.ieee.org/document/9792391
    tl = target.long()  # target left
    tr = tl + 1  # target right
    wl = tr - target  # weight left
    wr = 1 - wl  # weight right
    return (F.cross_entropy(pred_dist, tl.view(-1), reduction='none').view(tl.shape) * wl +
            F.cross_entropy(pred_dist, tr.view(-1), reduction='none').view(tl.shape) * wr).mean(-1, keepdim=True)

另一個與邊界框相關(guān)的損失函數(shù)是分布焦點損失(DFL)2。DFL關(guān)注的是邊界框回歸的分布差異。YOLOv8中的網(wǎng)絡不是直接預測邊界框,而是預測邊界框的概率分布。它旨在解決邊界模糊或部分遮擋的挑戰(zhàn)性對象。

關(guān)鍵點損失

ec706378-90b3-11ef-a511-92fbcf53809c.png

loss[1] += self.keypoint_loss(pred_kpt, gt_kpt, kpt_mask, area)


area:bounding box area


class KeypointLoss(nn.Module):


  def forward(self, pred_kpts, gt_kpts, kpt_mask, area):
        """Calculates keypoint loss factor and Euclidean distance loss for predicted and actual keypoints."""
        d = (pred_kpts[..., 0] - gt_kpts[..., 0]) ** 2 + (pred_kpts[..., 1] - gt_kpts[..., 1]) ** 2
        kpt_loss_factor = (torch.sum(kpt_mask != 0) + torch.sum(kpt_mask == 0)) / (torch.sum(kpt_mask != 0) + 1e-9)
        # e = d / (2 * (area * self.sigmas) ** 2 + 1e-9)  # from formula
        e = d / (2 * self.sigmas) ** 2 / (area + 1e-9) / 2  # from cocoeval
        return kpt_loss_factor * ((1 - torch.exp(-e)) * kpt_mask).mean()

在YOLOv8中,首次將姿態(tài)估計任務納入到框架中。姿態(tài)由一組關(guān)鍵點的坐標和順序定義。關(guān)鍵點損失監(jiān)控了預測和實際關(guān)鍵點之間的相似性。兩個對應關(guān)鍵點之間的歐幾里得距離是關(guān)鍵點損失的主要組成部分。此外,每個關(guān)鍵點都帶有一個權(quán)重σ,定義了關(guān)鍵點的重要性,默認值為1/關(guān)鍵點數(shù)。例如,如果姿態(tài)有四個關(guān)鍵點,則所有關(guān)鍵點的權(quán)重為1/4 = 0.25。

關(guān)鍵點目標損失

ec82b956-90b3-11ef-a511-92fbcf53809c.png

import torch.nn as nn
loss[2] = nn.BCEWithLogitsLoss(pred_kpt[..., 2], kpt_mask.float())

在大多數(shù)姿態(tài)估計訓練中,我們可以定義每個關(guān)鍵點的可見性。Python腳本中的參數(shù)kpt_mask攜帶了我們在標簽中定義的可見性(1/0)。關(guān)鍵點目標損失計算關(guān)鍵點存在的距離。在YOLOv8中,距離由預測值和實際值的二元交叉熵(BCE)測量。

分類損失和掩碼損失

eca756da-90b3-11ef-a511-92fbcf53809c.png

import torch.nn as nn


loss[3] = nn.BCEWithLogitLoss(pred_scores, target_scores.to(dtype)).sum() / target_scores_sum  # BCE

分類損失是涉及到所有任務的唯一損失函數(shù)。無論我們是在進行分類、目標檢測、分割還是姿態(tài)估計,圖像或特定對象的類別(例如貓、狗、人等)的推斷結(jié)果之間的距離都是通過二元交叉熵(BCE)計算的。

它還適用于實例分割中的掩碼損失。掩碼損失將每個像素視為一個對象,并計算相關(guān)的BCE值。在圖5中計算了一個3x3的預測掩碼和相應的掩碼損失。

總損失

# yolo/cfg/default.yaml
...
box: 7.5  # box loss gain
cls: 0.5  # cls loss gain (scale with pixels)
dfl: 1.5  # dfl loss gain
pose: 12.0  # pose loss gain
kobj: 1.0  # keypoint obj loss gain
...

好了,以上我們已經(jīng)介紹了所有六個損失。在網(wǎng)絡應用反向傳播并更新其參數(shù)之前,將損失與相應的權(quán)重相加。權(quán)重在配置文件default.yaml中定義,如上所示。如果您想在訓練階段動態(tài)調(diào)整權(quán)重,您可以考慮直接在存儲庫中使用下面提供的代碼片段。

loss[0] *= self.hyp.box  # box gain
loss[1] *= self.hyp.pose / batch_size  # pose gain
loss[2] *= self.hyp.kobj / batch_size  # kobj gain
loss[3] *= self.hyp.cls  # cls gain
loss[4] *= self.hyp.dfl  # dfl gain


return loss.sum() * batch_size, loss.detach()

總結(jié)

YOLO是一個為目標檢測任務而知名的框架。除了在效率和準確性方面的表現(xiàn)之外,它還在不斷更新最新的研究成果。這是一個讓計算機視覺從業(yè)者跟蹤和學習入選技術(shù)的好框架。損失函數(shù)在模型訓練中起著重要作用,并決定了最終的準確性。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 函數(shù)
    +關(guān)注

    關(guān)注

    3

    文章

    4381

    瀏覽量

    64893
  • 目標檢測
    +關(guān)注

    關(guān)注

    0

    文章

    225

    瀏覽量

    16019
  • python
    +關(guān)注

    關(guān)注

    56

    文章

    4827

    瀏覽量

    86761

原文標題:YOLOv8中的損失函數(shù)解析

文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    使用sophon-demo_v0.1.8_dbb4632_20231116下面的YOLOv8yolov8_bmcv歷程出現(xiàn)段錯誤的原因?

    使用sophon-demo_v0.1.8_dbb4632_20231116下面的YOLOv8yolov8_bmcv歷程,出現(xiàn)段錯誤: 定位到代碼中出錯的函數(shù)是 picDec(h,
    發(fā)表于 05-30 07:37

    yolov8怎么在wsl搭建呢?

    純小白,yolov8怎么在wsl搭建呢?一直報錯且無法安裝pip包
    發(fā)表于 07-11 07:37

    使用YOLOv8做目標檢測和實例分割的演示

    YOLOv8是來自Ultralytics的最新的基于YOLO的對象檢測模型系列,提供最先進的性能。
    的頭像 發(fā)表于 02-06 10:11 ?8428次閱讀

    YOLOv8自定義數(shù)據(jù)集訓練到模型部署推理簡析

    如果你只是想使用而不是開發(fā),強烈推薦通過pip安裝方式獲取YOLOv8包!YOLOv8安裝命令行
    的頭像 發(fā)表于 03-24 09:27 ?5146次閱讀

    在AI愛克斯開發(fā)板上用OpenVINO?加速YOLOv8目標檢測模型

    《在 AI 愛克斯開發(fā)板上用 OpenVINO 加速 YOLOv8 分類模型》介紹了在 AI 愛克斯開發(fā)板上使用 OpenVINO 開發(fā)套件部署并測評 YOLOv8 的分類模型,本文將介紹在 AI 愛克斯開發(fā)板上使用 OpenVINO 加速
    的頭像 發(fā)表于 05-12 09:08 ?1801次閱讀
    在AI愛克斯開發(fā)板上用OpenVINO?加速<b class='flag-5'>YOLOv8</b>目標檢測模型

    YOLOv8版本升級支持小目標檢測與高分辨率圖像輸入

    YOLOv8版本最近版本又更新了,除了支持姿態(tài)評估以外,通過模型結(jié)構(gòu)的修改還支持了小目標檢測與高分辨率圖像檢測。原始的YOLOv8模型結(jié)構(gòu)如下。
    的頭像 發(fā)表于 05-16 11:14 ?1.4w次閱讀
    <b class='flag-5'>YOLOv8</b>版本升級支持小目標檢測與高分辨率圖像輸入

    AI愛克斯開發(fā)板上使用OpenVINO加速YOLOv8目標檢測模型

    《在AI愛克斯開發(fā)板上用OpenVINO加速YOLOv8分類模型》介紹了在AI愛克斯開發(fā)板上使用OpenVINO 開發(fā)套件部署并測評YOLOv8的分類模型,本文將介紹在AI愛克斯開發(fā)板上使用OpenVINO加速YOLOv8目標檢
    的頭像 發(fā)表于 05-26 11:03 ?1850次閱讀
    AI愛克斯開發(fā)板上使用OpenVINO加速<b class='flag-5'>YOLOv8</b>目標檢測模型

    教你如何用兩行代碼搞定YOLOv8各種模型推理

    大家好,YOLOv8 框架本身提供的API函數(shù)是可以兩行代碼實現(xiàn) YOLOv8 模型推理,這次我把這段代碼封裝成了一個類,只有40行代碼左右,可以同時支持YOLOv8對象檢測、實例分割
    的頭像 發(fā)表于 06-18 11:50 ?3752次閱讀
    教你如何用兩行代碼搞定<b class='flag-5'>YOLOv8</b>各種模型推理

    三種主流模型部署框架YOLOv8推理演示

    深度學習模型部署有OpenVINO、ONNXRUNTIME、TensorRT三個主流框架,均支持Python與C++的SDK使用。對YOLOv5~YOLOv8的系列模型,均可以通過C++推理實現(xiàn)模型
    的頭像 發(fā)表于 08-06 11:39 ?3285次閱讀

    解鎖YOLOv8修改+注意力模塊訓練與部署流程

    很多人也想跟修改YOLOv5源碼一樣的方式去修改YOLOv8的源碼,但是在github上面卻發(fā)現(xiàn)找到的YOLOv8項目下面TAG分支是空的
    的頭像 發(fā)表于 08-11 14:14 ?5386次閱讀
    解鎖<b class='flag-5'>YOLOv8</b>修改+注意力模塊訓練與部署流程

    如何修改YOLOv8的源碼

    很多人也想跟修改YOLOv5源碼一樣的方式去修改YOLOv8的源碼,但是在github上面卻發(fā)現(xiàn)找到的YOLOv8項目下面TAG分支是空的,然后就直接從master/main下面把源碼克隆出來一通
    的頭像 發(fā)表于 09-04 10:02 ?2630次閱讀
    如何修改<b class='flag-5'>YOLOv8</b>的源碼

    YOLOv8實現(xiàn)任意目錄下命令行訓練

    當你使用YOLOv8命令行訓練模型的時候,如果當前執(zhí)行的目錄下沒有相關(guān)的預訓練模型文件,YOLOv8就會自動下載模型權(quán)重文件。這個是一個正常操作,但是你還會發(fā)現(xiàn),當你在參數(shù)model中指定已有
    的頭像 發(fā)表于 09-04 10:50 ?1484次閱讀
    <b class='flag-5'>YOLOv8</b>實現(xiàn)任意目錄下命令行訓練

    基于YOLOv8的自定義醫(yī)學圖像分割

    YOLOv8是一種令人驚嘆的分割模型;它易于訓練、測試和部署。在本教程,我們將學習如何在自定義數(shù)據(jù)集上使用YOLOv8。但在此之前,我想告訴你為什么在存在其他優(yōu)秀的分割模型時應該使用YOLO
    的頭像 發(fā)表于 12-20 10:51 ?1281次閱讀
    基于<b class='flag-5'>YOLOv8</b>的自定義醫(yī)學圖像分割

    RK3576 yolov8訓練部署教程

    本章展示yolov8模型的在EASY EAI Orin nano的部署過程。
    的頭像 發(fā)表于 04-02 16:04 ?468次閱讀
    RK3576 <b class='flag-5'>yolov8</b>訓練部署教程

    RV1126 yolov8訓練部署教程

    YOLOv8 是 ultralytics 公司在 2023 年 1月 10 號開源的基于YOLOV5進行更新的 下一個重大更新版本,目前支持圖像分類、物體檢測和實例分割任務,鑒于Yolov5的良好表現(xiàn),
    的頭像 發(fā)表于 04-16 14:53 ?492次閱讀
    RV1126 <b class='flag-5'>yolov8</b>訓練部署教程