一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

利用深度學(xué)習(xí)解決目標(biāo)檢測任務(wù)的簡單方法

zhKF_jqr_AI ? 來源:未知 ? 作者:李倩 ? 2018-10-18 09:34 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

每次丟了東西,我們都希望有一種方法能快速定位出失物?,F(xiàn)在,目標(biāo)檢測算法或許能做到。目標(biāo)檢測的用途遍布多個行業(yè),從安防監(jiān)控,到智慧城市中的實(shí)時交通監(jiān)測。簡單來說,這些技術(shù)背后都是強(qiáng)大的深度學(xué)習(xí)算法。

在這篇文章中,我們會進(jìn)一步地了解這些用在目標(biāo)檢測中的算法,首先要從RCNN家族開始,例如RCNN、Fast RCNN和Faster RCNN。在本系列接下來的文章中我們會談到更高級的算法,例如YOLO、SSD等等。

1. 解決目標(biāo)檢測任務(wù)的簡單方法(利用深度學(xué)習(xí))

下圖是描述目標(biāo)檢測算法如何工作的典型例子,圖中的每個物體(不論是任務(wù)還是風(fēng)箏),都能以一定的精確度被定位出來。

首先我們要說的就是在圖像目標(biāo)檢測中用途最廣、最簡單的深度學(xué)習(xí)方法——卷積神經(jīng)網(wǎng)絡(luò)(CNN)。我要講的是CNN的內(nèi)部工作原理,首先讓我們看看下面這張圖片。

向網(wǎng)絡(luò)中輸入一張圖片,接著將它傳遞到多個卷積和池化層中。最后輸出目標(biāo)所屬的類別,聽上去非常直接。

對每張輸入的圖片,我們都有對應(yīng)的輸出類別,那么這一技術(shù)能檢測圖片中多種目標(biāo)嗎?答案是肯定的!下面就讓我們看看如何用一個卷積神經(jīng)網(wǎng)絡(luò)解決通用的目標(biāo)檢測問題。

1.首先,我們把下面的圖片用作輸入:

2.之后,我們將圖片分成多個區(qū)域:

3.將每個區(qū)域看作單獨(dú)的圖片。

4.把這些區(qū)域照片傳遞給CNN,將它們分到不同類別中。

5.當(dāng)我們把每個區(qū)域都分到對應(yīng)的類別后,再把它們結(jié)合在一起,完成對原始圖像的目標(biāo)檢測:

使用這一方法的問題在于,圖片中的物體可能有不同的長寬比和空間位置。例如,在有些情況下,目標(biāo)物體可能占據(jù)了圖片的大部分,或者非常小。目標(biāo)物體的形狀也可能不同。

有了這些考慮因素,我們就需要分割很多個區(qū)域,需要大量計算力。所以為了解決這一問題,減少區(qū)域的分割,我們可以使用基于區(qū)域的CNN,它可以進(jìn)行區(qū)域選擇。

2. 基于區(qū)域的卷積神經(jīng)網(wǎng)絡(luò)介紹

2.1 RCNN簡介

和在大量區(qū)域上工作不同,RCNN算法提出在圖像中創(chuàng)建多個邊界框,檢查這些邊框中是否含有目標(biāo)物體。RCNN使用選擇性搜索來從一張圖片中提取這些邊框。

首先,讓我們明確什么是選擇性搜索,以及它是如何辨別不同區(qū)域的。組成目標(biāo)物體通常有四個要素:變化尺度、顏色、結(jié)構(gòu)(材質(zhì))、所占面積。選擇性搜索會確定物體在圖片中的這些特征,然后基于這些特征突出不同區(qū)域。下面是選擇搜索的一個簡單案例:

首先將一張圖片作為輸入:

之后,它會生成最初的sub-分割,將圖片分成多個區(qū)域:

基于顏色、結(jié)構(gòu)、尺寸、形狀,將相似的區(qū)域合并成更大的區(qū)域:

最后,生成最終的目標(biāo)物體位置(Region of Interest)。

用RCNN檢測目標(biāo)物體的步驟如下:

我們首先取一個預(yù)訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)。

根據(jù)需要檢測的目標(biāo)類別數(shù)量,訓(xùn)練網(wǎng)絡(luò)的最后一層。

得到每張圖片的感興趣區(qū)域(Region of Interest),對這些區(qū)域重新改造,以讓其符合CNN的輸入尺寸要求。

得到這些區(qū)域后,我們訓(xùn)練支持向量機(jī)(SVM)來辨別目標(biāo)物體和背景。對每個類別,我們都要訓(xùn)練一個二元SVM。

最后,我們訓(xùn)練一個線性回歸模型,為每個辨識到的物體生成更精確的邊界框。

下面我們就用具體的案例解釋一下。

首先,將以下圖片作為輸入:

之后,我們會用上文中的選擇性搜索得到感興趣區(qū)域:

將這些區(qū)域輸入到CNN中,并經(jīng)過卷積網(wǎng)絡(luò):

CNN為每個區(qū)域提取特征,利用SVM將這些區(qū)域分成不同類別:

最后,用邊界框回歸預(yù)測每個區(qū)域的邊界框位置:

這就是RCNN檢測目標(biāo)物體的方法。

2.2 RCNN的問題

現(xiàn)在,我們了解了RCNN能如何幫助進(jìn)行目標(biāo)檢測,但是這一技術(shù)有自己的局限性。訓(xùn)練一個RCNN模型非常昂貴,并且步驟較多:

根據(jù)選擇性搜索,要對每張圖片提取2000個單獨(dú)區(qū)域;

用CNN提取每個區(qū)域的特征。假設(shè)我們有N張圖片,那么CNN特征就是N*2000;

用RCNN進(jìn)行目標(biāo)檢測的整個過程有三個模型:

用于特征提取的CNN

用于目標(biāo)物體辨別的線性SVM分類器

調(diào)整邊界框的回歸模型。

這些過程合并在一起,會讓RCNN的速度變慢,通常每個新圖片需要40—50秒的時間進(jìn)行預(yù)測,基本上無法處理大型數(shù)據(jù)集。

所以,這里我們介紹另一種能突破這些限制的目標(biāo)檢測技術(shù)。

3. Fast RCNN

3.1 Fast RCNN簡介

想要減少RCNN算法的計算時間,可以用什么方法?我們可不可以在每張圖片上只使用一次CNN即可得到全部的重點(diǎn)關(guān)注區(qū)域呢,而不是運(yùn)行2000次。

RCNN的作者Ross Girshick提出了一種想法,在每張照片上只運(yùn)行一次CNN,然后找到一種方法在2000個區(qū)域中進(jìn)行計算。在Fast RCNN中,我們將圖片輸入到CNN中,會相應(yīng)地生成傳統(tǒng)特征映射。利用這些映射,就能提取出感興趣區(qū)域。之后,我們使用一個Rol池化層將所有提出的區(qū)域重新修正到合適的尺寸,以輸入到完全連接的網(wǎng)絡(luò)中。

簡單地說,這一過程含有以下步驟:

輸入圖片。

輸入到卷積網(wǎng)絡(luò)中,它生成感興趣區(qū)域。

利用Rol池化層對這些區(qū)域重新調(diào)整,將其輸入到完全連接網(wǎng)絡(luò)中。

在網(wǎng)絡(luò)的頂層用softmax層輸出類別。同樣使用一個線性回歸層,輸出相對應(yīng)的邊界框。

所以,和RCNN所需要的三個模型不同,F(xiàn)ast RCNN只用了一個模型就同時實(shí)現(xiàn)了區(qū)域的特征提取、分類、邊界框生成。

同樣,我們還用上面的圖像作為案例,進(jìn)行更直觀的講解。

首先,輸入圖像:

圖像被傳遞到卷積網(wǎng)絡(luò)中,返回感興趣區(qū)域:

之后,在區(qū)域上應(yīng)用Rol池化層,保證每個區(qū)域的尺寸相同:

最后,這些區(qū)域被傳遞到一個完全連接的網(wǎng)絡(luò)中進(jìn)行分類,并用softmax和線性回歸層同時返回邊界框:

3.2 Fast RCNN的問題

但是即使這樣,F(xiàn)ast RCNN也有某些局限性。它同樣用的是選擇性搜索作為尋找感興趣區(qū)域的,這一過程通常較慢。與RCNN不同的是,F(xiàn)ast RCNN處理一張圖片大約需要2秒。但是在大型真實(shí)數(shù)據(jù)集上,這種速度仍然不夠理想。

4.Faster RCNN

4.1 Faster RCNN簡介

Faster RCNN是Fast RCNN的優(yōu)化版本,二者主要的不同在于感興趣區(qū)域的生成方法,F(xiàn)ast RCNN使用的是選擇性搜索,而Faster RCNN用的是Region Proposal網(wǎng)絡(luò)(RPN)。RPN將圖像特征映射作為輸入,生成一系列object proposals,每個都帶有相應(yīng)的分?jǐn)?shù)。

下面是Faster RCNN工作的大致過程:

輸入圖像到卷積網(wǎng)絡(luò)中,生成該圖像的特征映射。

在特征映射上應(yīng)用Region Proposal Network,返回object proposals和相應(yīng)分?jǐn)?shù)。

應(yīng)用Rol池化層,將所有proposals修正到同樣尺寸。

最后,將proposals傳遞到完全連接層,生成目標(biāo)物體的邊界框。

那么Region Proposal Network具體是如何工作的呢?首先,將CNN中得來的特征映射輸入到Faster RCNN中,然后將其傳遞到Region Proposal Network中。RPN會在這些特征映射上使用一個滑動窗口,每個窗口會生成具有不同形狀和尺寸的k個anchor box:

Anchor boxes是固定尺寸的邊界框,它們有不同的形狀和大小。對每個anchor,RPN都會預(yù)測兩點(diǎn):

首先是anchor就是目標(biāo)物體的概率(不考慮類別)

第二個就是anchor經(jīng)過調(diào)整能更合適目標(biāo)物體的邊界框回歸量

現(xiàn)在我們有了不同形狀、尺寸的邊界框,將它們傳遞到Rol池化層中。經(jīng)過RPN的處理,proposals可能沒有所述的類別。我們可以對每個proposal進(jìn)行切割,讓它們都含有目標(biāo)物體。這就是Rol池化層的作用。它為每個anchor提取固定尺寸的特征映射:

之后,這些特征映射會傳遞到完全連接層,對目標(biāo)進(jìn)行分類并預(yù)測邊界框。

4.2 Faster RCNN的問題

目前為止,我們所討論的所有目標(biāo)檢測算法都用區(qū)域來辨別目標(biāo)物體。網(wǎng)絡(luò)并非一次性瀏覽所有圖像,而是關(guān)注圖像的多個部分。這就會出現(xiàn)兩個問題:

算法需要讓圖像經(jīng)過多個步驟才能提取出所有目標(biāo)

由于有多個步驟嵌套,系統(tǒng)的表現(xiàn)常常取決于前面步驟的表現(xiàn)水平

5. 上述算法總結(jié)

下表對本文中提到的算法做了總結(jié):

目標(biāo)檢測是很有趣的領(lǐng)域,在商業(yè)中也大有前景。得益于現(xiàn)代硬件和計算資源的發(fā)展,才能讓這一技術(shù)有重要的突破。

本文只是目標(biāo)檢測算法的開門介紹,在下一篇文章中,我們會講解YOLO、RetinaNet這樣更流行的算法,請繼續(xù)關(guān)注!

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4814

    瀏覽量

    103646
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4710

    瀏覽量

    95405
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5561

    瀏覽量

    122799

原文標(biāo)題:基礎(chǔ)目標(biāo)檢測算法介紹(一):CNN、RCNN、Fast RCNN和Faster RCNN

文章出處:【微信號:jqr_AI,微信公眾號:論智】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    提高IT運(yùn)維效率,深度解讀京東云AIOps落地實(shí)踐(異常檢測篇)

    基于深度學(xué)習(xí)對運(yùn)維時序指標(biāo)進(jìn)行異常檢測,快速發(fā)現(xiàn)線上業(yè)務(wù)問題 時間序列的異常檢測是實(shí)際應(yīng)用中的一個關(guān)鍵問題,尤其是在 IT 行業(yè)。我們沒有采用傳統(tǒng)的基于閾值的
    的頭像 發(fā)表于 05-22 16:38 ?433次閱讀
    提高IT運(yùn)維效率,<b class='flag-5'>深度</b>解讀京東云AIOps落地實(shí)踐(異常<b class='flag-5'>檢測</b>篇)

    labview調(diào)用yolo目標(biāo)檢測、分割、分類、obb

    labview調(diào)用yolo目標(biāo)檢測、分割、分類、obb、pose深度學(xué)習(xí),支持CPU和GPU推理,32/64位labview均可使用。 (yolov5~yolov12)
    發(fā)表于 03-31 16:28

    基于高光譜深度特征的油菜葉片鋅含量檢測

    為了實(shí)現(xiàn)油菜葉片鋅含量的快速無損檢測,該研究采用一種基于高光譜成像技術(shù)結(jié)合深度遷移學(xué)習(xí)算法的高精度檢測方法,通過無土栽培的方式,
    的頭像 發(fā)表于 02-24 18:03 ?362次閱讀
    基于高光譜<b class='flag-5'>深度</b>特征的油菜葉片鋅含量<b class='flag-5'>檢測</b>

    探索對抗訓(xùn)練的概率分布偏差:DPA雙概率對齊的通用域自適的目標(biāo)檢測方法

    檢測目標(biāo)檢測作為計算機(jī)視覺領(lǐng)域的核心任務(wù),在閉集場景中已經(jīng)取得了顯著的進(jìn)展。然而,現(xiàn)有的方法通常假設(shè)類別集合是固定的,并依賴于大量的標(biāo)注
    的頭像 發(fā)表于 01-15 13:45 ?757次閱讀
    探索對抗訓(xùn)練的概率分布偏差:DPA雙概率對齊的通用域自適的<b class='flag-5'>目標(biāo)</b><b class='flag-5'>檢測</b><b class='flag-5'>方法</b>

    采用華為云 Flexus 云服務(wù)器 X 實(shí)例部署 YOLOv3 算法完成目標(biāo)檢測

    一、前言 1.1 開發(fā)需求 這篇文章講解:?采用華為云最新推出的 Flexus 云服務(wù)器 X 實(shí)例部署 YOLOv3 算法,完成圖像分析、目標(biāo)檢測。 隨著計算機(jī)視覺技術(shù)的飛速發(fā)展,深度學(xué)習(xí)
    的頭像 發(fā)表于 01-02 12:00 ?545次閱讀
    采用華為云 Flexus 云服務(wù)器 X 實(shí)例部署 YOLOv3 算法完成<b class='flag-5'>目標(biāo)</b><b class='flag-5'>檢測</b>

    AI模型部署邊緣設(shè)備的奇妙之旅:目標(biāo)檢測模型

    挑戰(zhàn)的方法。 2 目標(biāo)檢測模型介紹 在目標(biāo)檢測任務(wù)中,有著許許多多的模型,如 Picodet、
    發(fā)表于 12-19 14:33

    視頻目標(biāo)跟蹤從0到1,概念與方法

    視覺目標(biāo)跟蹤的挑戰(zhàn)和算法模型,最后,我們將介紹最流行的基于深度學(xué)習(xí)目標(biāo)跟蹤方法,包括MDNET,GOTURN,ROLO等。本文希望你
    的頭像 發(fā)表于 11-20 01:06 ?916次閱讀
    視頻<b class='flag-5'>目標(biāo)</b>跟蹤從0到1,概念與<b class='flag-5'>方法</b>

    NPU在深度學(xué)習(xí)中的應(yīng)用

    設(shè)計的硬件加速器,它在深度學(xué)習(xí)中的應(yīng)用日益廣泛。 1. NPU的基本概念 NPU是一種專門針對深度學(xué)習(xí)算法優(yōu)化的處理器,它與傳統(tǒng)的CPU和GPU有所不同。NPU通常具有高度并行的處理能
    的頭像 發(fā)表于 11-14 15:17 ?1919次閱讀

    Pytorch深度學(xué)習(xí)訓(xùn)練的方法

    掌握這 17 種方法,用最省力的方式,加速你的 Pytorch 深度學(xué)習(xí)訓(xùn)練。
    的頭像 發(fā)表于 10-28 14:05 ?659次閱讀
    Pytorch<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>訓(xùn)練的<b class='flag-5'>方法</b>

    GPU深度學(xué)習(xí)應(yīng)用案例

    GPU在深度學(xué)習(xí)中的應(yīng)用廣泛且重要,以下是一些GPU深度學(xué)習(xí)應(yīng)用案例: 一、圖像識別 圖像識別是深度學(xué)習(xí)
    的頭像 發(fā)表于 10-27 11:13 ?1382次閱讀

    FPGA加速深度學(xué)習(xí)模型的案例

    FPGA(現(xiàn)場可編程門陣列)加速深度學(xué)習(xí)模型是當(dāng)前硬件加速領(lǐng)域的一個熱門研究方向。以下是一些FPGA加速深度學(xué)習(xí)模型的案例: 一、基于FPGA的AlexNet卷積運(yùn)算加速 項目名稱
    的頭像 發(fā)表于 10-25 09:22 ?1235次閱讀

    AI大模型與深度學(xué)習(xí)的關(guān)系

    AI大模型與深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進(jìn),相輔相成。以下是對兩者關(guān)系的介紹: 一、深度學(xué)習(xí)是AI大模型的基礎(chǔ) 技術(shù)支撐 :深度
    的頭像 發(fā)表于 10-23 15:25 ?2900次閱讀

    深度學(xué)習(xí)GPU加速效果如何

    圖形處理器(GPU)憑借其強(qiáng)大的并行計算能力,成為加速深度學(xué)習(xí)任務(wù)的理想選擇。
    的頭像 發(fā)表于 10-17 10:07 ?617次閱讀

    請問DRV135有沒有簡單方法可以實(shí)現(xiàn)單端輸出?

    在設(shè)計產(chǎn)品過程中,因?yàn)楫a(chǎn)品體積限制,DRV135有沒有簡單方法可以實(shí)現(xiàn)單端輸出?請教了!
    發(fā)表于 10-16 06:14

    FPGA做深度學(xué)習(xí)能走多遠(yuǎn)?

    支持不同的數(shù)據(jù)精度、量化和激活函數(shù)等。這種靈活性使其能夠適應(yīng)各種深度學(xué)習(xí)任務(wù),為不同的應(yīng)用場景提供定制化的解決方案。 ? 低功耗:FPGA 是可編程的,可以在設(shè)計中僅使用所需的計算資源,從而避免不必要
    發(fā)表于 09-27 20:53