一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

RepPoints 比邊界框更好用的目標檢測方法

電子工程師 ? 來源:fqj ? 2019-05-09 17:25 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

來自北京大學、清華大學和微軟亞洲研究院的研究人員提出一種新的、更精細的對象表示方法RepPoints,拋棄了流行的邊界框表示,結果與最先進的基于 anchor 的檢測方法同樣有效。

目標檢測是計算機視覺中最基本的任務之一,也是許多視覺應用的關鍵組成部分,包括實例分割、人體姿態(tài)分析、視覺推理等。

目標檢測的目的是在圖像中定位目標,并提供目標的類別標簽。

近年來,隨著深度神經網絡的快速發(fā)展,目標檢測問題也取得了長足的進展。

當前先進的目標檢測器很大程度上依賴于矩形邊界框來表示不同識別階段的對象,如 anchors、proposals 以及最終的預測。

邊界框使用方便,但它只提供目標的粗略定位,導致對目標特征的提取也相當粗略。

近日,來自北京大學、清華大學和微軟亞洲研究院的楊澤、王立威、Shaohui Liu 等人在他們的最新論文中,提出了一種新的、更精細的對象表示方法 ——RepPoints (representative points),這是一組對定位和識別都很有用的樣本點 (sample points)。

RepPoints 比邊界框更好用的目標檢測方法

給定訓練的 ground truth 定位和識別目標,RepPoints 學會自動以限制目標的空間范圍的方式來排列自己,并表示在語義上重要的局部區(qū)域。此外,RepPoints 不需要使用 anchor 來對邊界框的空間進行采樣。

作者展示了一個基于 RepPoints 的、anchor-free 的目標檢測器,不需要多尺度訓練和測試就可以實現,而且與最先進的基于 anchor 的檢測方法同樣有效,在 COCO test-dev 檢測基準上達到了42.8 AP 和 65.0 AP??。

拋棄邊界框,更細粒度的目標表示RepPoints

在目標檢測過程中,邊界框是處理的基本元素。邊界框描述了目標檢測器各階段的目標位置。

雖然邊界框便于計算,但它們僅提供目標的粗略定位,并不完全擬合對象的形狀和姿態(tài)。因此,從邊界框的規(guī)則單元格中提取的特征可能會受到包含少量語義信息的背景內容或無信息的前景區(qū)域的嚴重影響。這可能導致特征質量降低,從而降低了目標檢測的分類性能。

本文提出一種新的表示方法,稱為 RepPoints,它提供了更細粒度的定位和更方便的分類。

如圖 1 所示,RepPoints 是一組點,學習自適應地將自己置于目標之上,其方式限定了目標的空間范圍,并表示語義上重要的局部區(qū)域。

RepPoints 比邊界框更好用的目標檢測方法

圖 1:RepPoints 是一種新的目標檢測表示方法

RepPoints 的訓練由目標定位和識別目標共同驅動,因此,RepPoints 與 ground-truth 的邊界框緊密相關,并引導檢測器正確地分類目標。

這種自適應、可微的表示可以在現代目標檢測器的不同階段連貫地使用,并且不需要使用 anchors 來對邊界框空間進行采樣。

RepPoints 不同于用于目標檢測現有的非矩形表示,它們都是以自底向上的方式構建的。這些自底向上的表示方法會識別單個的點 (例如,邊界框角或對象的末端)。此外,它們的表示要么像邊界框那樣仍然是軸對齊的,要么需要 ground truth 對象掩碼作為額外的監(jiān)督。

相反,RepPoints 是通過自頂向下的方式從輸入圖像 / 對象特征中學習的,允許端到端訓練和生成細粒度的定位,而無需額外的監(jiān)督。

為了證明 RepPoints 表示的強大能力,我們提出了一種基于可變形 ConvNets 框架的實現,該框架在保證特征提取方便的同時,提供了適合指導自適應采樣的識別反饋。

我們發(fā)現,這個無 anchor 的檢測系統(tǒng)在對目標進行精確定位的同時,具有較強的分類能力。在沒有多尺度訓練和測試的情況下,我們的檢測器在 COCO 基準上實現了 42.8 AP 和 65.0 AP?? 的精度,不僅超過了所有現有的 anchor-free 檢測器,而且性能與最先進的 anchor-based 的基線模型相當。

RepPoints vs 邊界框

本節(jié)將描述 RepPoints,以及它與邊界框的區(qū)別。

邊界框表示

邊界框是一個 4-d 表示,編碼目標的空間位置,即 B = (x, y, w, h), x, y 表示中心點,w, h 表示寬度和高度。

由于其使用簡單方便,現代目標檢測器嚴重依賴于邊界框來表示檢測 pipeline 中各個階段的對象。

性能最優(yōu)的目標檢測器通常遵循一個 multi-stage 的識別范式,其中目標定位是逐步細化的。其中,目標表示的角色如下:

RepPoints 比邊界框更好用的目標檢測方法

RepPoints

如前所述,4-d 邊界框是目標位置的一個粗略表示。邊界框表示只考慮目標的矩形空間范圍,不考慮形狀、姿態(tài)和語義上重要的局部區(qū)域的位置,這些可用于更好的定位和更好的目標特征提取。

為了克服上述限制,RepPoints 轉而對一組自適應樣本點進行建模:

RepPoints 比邊界框更好用的目標檢測方法

其中 n 為表示中使用的樣本點的總數。在這項工作中,n 默認設置為 9。

Learning RepPoints

RepPoints 的學習是由目標定位損失和目標識別損失共同驅動的。為了計算目標定位損失,我們首先用一個轉換函數 T 將 RepPoints 轉換為偽框 (pseudo box)。然后,計算轉換后的偽框與 ground truth 邊界框之間的差異。

圖 3 顯示,當訓練由目標定位損失和目標識別損失組合驅動時,目標的極值點和語義關鍵點可以自動學習。

圖 3: 學習的 RepPoints 的可視化和來自 COCO minival set 的幾個例子的檢測結果。通常,學習的 RepPoints 位于目標的端點或語義關鍵點上。

RPDet: 無需 Anchor 的目標檢測器

我們設計了一種不使用 anchor 的對象檢測器,它利用 RepPoints 代替邊界框作為基本表示。

目標表示的演化過程如下:

RepPoints 比邊界框更好用的目標檢測方法

RepPoints Detector (RPDet) 由兩個基于可變形卷積的識別階段構成,如圖 2 所示。

RepPoints 比邊界框更好用的目標檢測方法

圖 2:RPDet (RepPoints detector) 的概覽,以特征金字塔網絡 (FPN) 為主干

可變形卷積與 RepPoints 很好地結合在一起,因為它的卷積是在一組不規(guī)則分布的采樣點上計算的,反之,它的識別反饋可以指導訓練這些點的定位。

實驗和結果

RepPoints 比邊界框更好用的目標檢測方法

表 1:目標檢測中 RepPoints 與邊界框表示的比較。除了處理給定的目標表示之外,網絡結構是相同的。

從表 1 可以看出,將目標表示從邊界框變?yōu)?RepPoints,可以帶來一定程度的性能提升,如使用 ResNet-50 作為主干網絡時提升了 2.1 mAP,使用 ResNet-101 時提升了 2.0 mAP。這表明相對于邊界框,RepPoints 表示在對象檢測方面具有優(yōu)勢。

RepPoints 比邊界框更好用的目標檢測方法

表 7:將所提出的 RPDet 與 COCO test-dev 上最先進的檢測器進行比較。

如表 7 所示,在沒有 multi-scale 訓練和測試的情況下,所提出的框架使用 ResNet-101-DCN 主干網絡實現了 42.8 AP,與基于 anchor 的 Cascade R-CNN 方法相當,性能優(yōu)于現有的所有不采用 anchor 的檢測器。此外,RPDet 獲得了 65.0 的 AP??,大大超過了所有基線。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯系本站處理。 舉報投訴
  • 目標檢測
    +關注

    關注

    0

    文章

    225

    瀏覽量

    16021

原文標題:北大、清華、微軟聯合提出RepPoints,比邊界框更好用的目標檢測方法

文章出處:【微信號:aicapital,微信公眾號:全球人工智能】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    YOLOv8水果檢測示例代碼換成640輸入圖像出現目標繪制錯誤的原因 ?

    \",中的best.kmodel替換為640輸入圖像,model_input_size=[640,640],就會出現目標檢測目標位置混亂,目標
    發(fā)表于 06-18 06:37

    基于LockAI視覺識別模塊:C++目標檢測

    檢測是計算機視覺領域中的一個關鍵任務,它不僅需要識別圖像中存在哪些對象,還需要定位這些對象的位置。具體來說,目標檢測算法會輸出每個檢測到的對象的邊界
    發(fā)表于 06-06 14:43

    基于LockAI視覺識別模塊:C++目標檢測

    本文檔基于瑞芯微RV1106的LockAI凌智視覺識別模塊,通過C++語言做的目標檢測實驗。本文檔展示了如何使用lockzhiner_vision_module::PaddleDet類進行目標
    的頭像 發(fā)表于 06-06 13:56 ?219次閱讀
    基于LockAI視覺識別模塊:C++<b class='flag-5'>目標</b><b class='flag-5'>檢測</b>

    手機中氣密性檢測儀的使用方法

    在手機制造過程中,確保手機中的氣密性至關重要,這直接關系到手機的防水、防塵性能以及整體質量。以下是手機中氣密性檢測儀的具體使用方法檢測
    的頭像 發(fā)表于 05-27 13:50 ?286次閱讀
    手機中<b class='flag-5'>框</b>氣密性<b class='flag-5'>檢測</b>儀的使用<b class='flag-5'>方法</b>

    阿童木雙張檢測器好不好用?用數據和場景說話

    在工業(yè)生產中,雙張疊料檢測是保障產線穩(wěn)定與產品質量的關鍵環(huán)節(jié)。阿童木雙張檢測器憑借技術創(chuàng)新和行業(yè)落地經驗,成為眾多企業(yè)的選擇。但它究竟“好不好用”?本文將從性能表現、場景適配、用戶反饋三大維度展開
    的頭像 發(fā)表于 05-22 11:39 ?252次閱讀
    阿童木雙張<b class='flag-5'>檢測</b>器好不<b class='flag-5'>好用</b>?用數據和場景說話

    labview調用yolo目標檢測、分割、分類、obb

    labview調用yolo目標檢測、分割、分類、obb、pose深度學習,支持CPU和GPU推理,32/64位labview均可使用。 (yolov5~yolov12)
    發(fā)表于 03-31 16:28

    軒轅智駕紅外目標檢測算法在汽車領域的應用

    在 AI 技術蓬勃發(fā)展的當下,目標檢測算法取得了重大突破,其中紅外目標檢測算法更是在汽車行業(yè)掀起了波瀾壯闊的變革,從根本上重塑著汽車的安全性能、駕駛體驗與產業(yè)生態(tài)。
    的頭像 發(fā)表于 03-27 15:55 ?429次閱讀

    在自定義檢測應用程序中創(chuàng)建綁定時協調錯誤怎么解決?

    * image.shape[1]), image.shape[1] - 10)) ymax = int(min((ymax * image.shape[0]), image.shape[0] - 10)) 獲得正確的邊界坐標。
    發(fā)表于 03-06 07:41

    請問如何從YOLOv8輸出張量結果中獲取邊界?

    ;) open(\"zebra.jpeg\", \"rb\") as f: img = f.read() 獲得以下輸出結果: (1, 84, 8400) 無法將輸出結果轉換為邊界。
    發(fā)表于 03-06 06:58

    物聯網單燈控制器:路燈單燈控制更智能,更好用

    物聯網單燈控制器:路燈單燈控制更智能,更好用
    的頭像 發(fā)表于 01-15 16:17 ?605次閱讀
    物聯網單燈控制器:路燈單燈控制更智能,<b class='flag-5'>更好用</b>

    探索對抗訓練的概率分布偏差:DPA雙概率對齊的通用域自適的目標檢測方法

    檢測目標檢測作為計算機視覺領域的核心任務,在閉集場景中已經取得了顯著的進展。然而,現有的方法通常假設類別集合是固定的,并依賴于大量的標注數據,這導致它們在處理跨域數據時,特別是在源
    的頭像 發(fā)表于 01-15 13:45 ?756次閱讀
    探索對抗訓練的概率分布偏差:DPA雙概率對齊的通用域自適的<b class='flag-5'>目標</b><b class='flag-5'>檢測</b><b class='flag-5'>方法</b>

    AI模型部署邊緣設備的奇妙之旅:目標檢測模型

    挑戰(zhàn)的方法。 2 目標檢測模型介紹 在目標檢測的任務中,有著許許多多的模型,如 Picodet、Faster R-CNN、YOLO、SSD等
    發(fā)表于 12-19 14:33

    視頻目標跟蹤從0到1,概念與方法

    視覺目標跟蹤的挑戰(zhàn)和算法模型,最后,我們將介紹最流行的基于深度學習的目標跟蹤方法,包括MDNET,GOTURN,ROLO等。本文希望你
    的頭像 發(fā)表于 11-20 01:06 ?913次閱讀
    視頻<b class='flag-5'>目標</b>跟蹤從0到1,概念與<b class='flag-5'>方法</b>

    在樹莓派上部署YOLOv5進行動物目標檢測的完整流程

    目標檢測在計算機視覺領域中具有重要意義。YOLOv5(You Only Look One-level)是目標檢測算法中的一種代表性方法,以其
    的頭像 發(fā)表于 11-11 10:38 ?3726次閱讀
    在樹莓派上部署YOLOv5進行動物<b class='flag-5'>目標</b><b class='flag-5'>檢測</b>的完整流程

    目標檢測中大物體的重要性

    導讀實驗表明,對大型物體賦予更大的權重可以提高所有尺寸物體的檢測分數,從而整體提升目標檢測器的性能(在COCOval2017數據集上使用InternImage-T模型,小物體檢測精度提
    的頭像 發(fā)表于 10-09 08:05 ?821次閱讀
    在<b class='flag-5'>目標</b><b class='flag-5'>檢測</b>中大物體的重要性