一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深入淺出Yolov3和Yolov4

新機(jī)器視覺(jué) ? 來(lái)源:知乎 ? 2024-01-11 10:42 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

因?yàn)楣ぷ髟颍?xiàng)目中經(jīng)常遇到目標(biāo)檢測(cè)的任務(wù),因此對(duì)目標(biāo)檢測(cè)算法會(huì)經(jīng)常使用和關(guān)注,比如Yolov3、Yolov4算法。

當(dāng)然,實(shí)際項(xiàng)目中很多的第一步,也都是先進(jìn)行目標(biāo)檢測(cè)任務(wù),比如人臉識(shí)別、多目標(biāo)追蹤、REID、客流統(tǒng)計(jì)等項(xiàng)目。因此目標(biāo)檢測(cè)是計(jì)算機(jī)視覺(jué)項(xiàng)目中非常重要的一部分。

從2018年Yolov3年提出的兩年后,在原作者聲名放棄更新Yolo算法后,俄羅斯的Alexey大神扛起了Yolov4的大旗。

在此,大白將項(xiàng)目中,需要了解的Yolov3、Yolov4系列相關(guān)知識(shí)點(diǎn)以及相關(guān)代碼進(jìn)行完整的匯總,希望和大家共同學(xué)習(xí)探討。

1.論文匯總

Yolov3論文名:《Yolov3: An Incremental Improvement》 Yolov3論文地址:arxiv.org/pdf/1804.0276 Yolov4論文名:《Yolov4: Optimal Speed and Accuracy of Object Detection》 Yolov4論文地址:arxiv.org/pdf/2004.1093

2.YoloV3核心基礎(chǔ)內(nèi)容

2.1 網(wǎng)絡(luò)結(jié)構(gòu)可視化

Yolov3是目標(biāo)檢測(cè)Yolo系列非常非常經(jīng)典的算法,不過(guò)很多同學(xué)拿到Y(jié)olov3或者Yolov4的cfg文件時(shí),并不知道如何直觀的可視化查看網(wǎng)絡(luò)結(jié)構(gòu)。如果純粹看cfg里面的內(nèi)容,肯定會(huì)一臉懵逼。 其實(shí)可以很方便的用netron查看Yolov3的網(wǎng)絡(luò)結(jié)構(gòu)圖,一目了然。 這里不多說(shuō),如果需要安裝,可以移步大白的另一篇文章:《網(wǎng)絡(luò)可視化工具netron詳細(xì)安裝流程》。 如果不想安裝,也可以直接點(diǎn)擊此鏈接,查看Yolov3可視化流程圖。

2.2 網(wǎng)絡(luò)結(jié)構(gòu)圖

9001c188-af8e-11ee-8b88-92fbcf53809c.jpg

繪制網(wǎng)絡(luò)結(jié)構(gòu)圖受到Y(jié)olov3另一位作者文章的啟發(fā),包括下面Yolov4的結(jié)構(gòu)圖,確實(shí),從總體框架上先了解了Yolov3的流程,再針對(duì)去學(xué)習(xí)每一小塊的知識(shí)點(diǎn),會(huì)事半功倍。 上圖三個(gè)藍(lán)色方框內(nèi)表示Yolov3的三個(gè)基本組件:

CBL:Yolov3網(wǎng)絡(luò)結(jié)構(gòu)中的最小組件,由Conv+Bn+Leaky_relu激活函數(shù)三者組成。

Res unit:借鑒Resnet網(wǎng)絡(luò)中的殘差結(jié)構(gòu),讓網(wǎng)絡(luò)可以構(gòu)建的更深。

ResX:由一個(gè)CBL和X個(gè)殘差組件構(gòu)成,是Yolov3中的大組件。每個(gè)Res模塊前面的CBL都起到下采樣的作用,因此經(jīng)過(guò)5次Res模塊后,得到的特征圖是608->304->152->76->38->19大小。

其他基礎(chǔ)操作:

Concat:張量拼接,會(huì)擴(kuò)充兩個(gè)張量的維度,例如26*26*256和26*26*512兩個(gè)張量拼接,結(jié)果是26*26*768。Concat和cfg文件中的route功能一樣。

add:張量相加,張量直接相加,不會(huì)擴(kuò)充維度,例如104*104*128和104*104*128相加,結(jié)果還是104*104*128。add和cfg文件中的shortcut功能一樣。

Backbone中卷積層的數(shù)量: 每個(gè)ResX中包含1+2*X個(gè)卷積層,因此整個(gè)主干網(wǎng)絡(luò)Backbone中一共包含1+(1+2*1)+(1+2*2)+(1+2*8)+(1+2*8)+(1+2*4)=52,再加上一個(gè)FC全連接層,即可以組成一個(gè)Darknet53分類(lèi)網(wǎng)絡(luò)。不過(guò)在目標(biāo)檢測(cè)Yolov3中,去掉FC層,不過(guò)為了方便稱(chēng)呼,仍然把Yolov3的主干網(wǎng)絡(luò)叫做Darknet53結(jié)構(gòu)。

2.3核心基礎(chǔ)內(nèi)容

Yolov3是2018年發(fā)明提出的,這成為了目標(biāo)檢測(cè)one-stage中非常經(jīng)典的算法,包含Darknet-53網(wǎng)絡(luò)結(jié)構(gòu)、anchor錨框、FPN等非常優(yōu)秀的結(jié)構(gòu)。 本文主要目的在于描述Yolov4和Yolov3算法的不同及創(chuàng)新之處,對(duì)Yolov3的基礎(chǔ)不過(guò)多描述。 不過(guò)大白也正在準(zhǔn)備Yolov3算法非常淺顯易懂的基礎(chǔ)視頻課程,讓小白也能簡(jiǎn)單清楚的了解Yolov3的整個(gè)過(guò)程及各個(gè)算法細(xì)節(jié),制作好后會(huì)更新到此處,便于大家查看。 在準(zhǔn)備課程過(guò)程中,大白搜集查看了網(wǎng)絡(luò)上幾乎所有的Yolov3資料,在此整理幾個(gè)非常不錯(cuò)的文章及視頻,大家也可以點(diǎn)擊查看,學(xué)習(xí)相關(guān)知識(shí)。 (1)視頻:吳恩達(dá)目標(biāo)檢測(cè)Yolo入門(mén)講解 https://www.bilibili.com/video/BV1N4411J7Y6?from=search&seid=18074481568368507115 (2)文章:Yolo系列之Yolov3【深度解析】 https://blog.csdn.net/leviopku/article/details/82660381 (3)文章:一文看懂Yolov3 https://blog.csdn.net/litt1e/article/details/88907542 相信大家看完,對(duì)于Yolov3的基礎(chǔ)知識(shí)點(diǎn)會(huì)有一定的了解。

3.YoloV3相關(guān)代碼

3.1 python代碼

代碼地址:https://github.com/ultralytics/Yolov3

3.2 C++代碼

這里推薦Yolov4作者的darknetAB代碼,代碼和原始作者代碼相比,進(jìn)行了很多的優(yōu)化,如需要運(yùn)行Yolov3網(wǎng)絡(luò),加載cfg時(shí),使用Yolov3.cfg即可 代碼地址:https://github.com/AlexeyAB/darknet

3.3 python版本的Tensorrt代碼

除了算法研究外,實(shí)際項(xiàng)目中還需要將算法落地部署到工程上使用,比如GPU服務(wù)器使用時(shí)還需要對(duì)模型進(jìn)行tensorrt加速。

(1)Tensort中的加速案例

強(qiáng)烈推薦tensort軟件中,自帶的Yolov3加速案例,路徑位于tensorrt解壓文件夾的TensortX/samples/python/Yolov3_onnx中 針對(duì)案例中的代碼,如果有不明白的,也可參照下方文章上的詳細(xì)說(shuō)明: 代碼地址:https://www.cnblogs.com/shouhuxianjian/p/10550262.html

(2)Github上的tensorrt加速

除了tensorrt軟件中的代碼, github上也有其他作者的開(kāi)源代碼 代碼地址:https://github.com/lewes6369/TensorRT-Yolov3

3.4C++版本的Tensorrt代碼

項(xiàng)目的工程部署上,如果使用C++版本進(jìn)行Tensorrt加速,一方面可以參照Alexey的github代碼,另一方面也可以參照下面其他作者的開(kāi)源代碼 代碼地址:https://github.com/wang-xinyu/tensorrtx/tree/master/Yolov3

4.YoloV4核心基礎(chǔ)內(nèi)容

4.1 網(wǎng)絡(luò)結(jié)構(gòu)可視化

Yolov4的網(wǎng)絡(luò)結(jié)構(gòu)也可以使用netron工具查看,大白也是對(duì)照其展示的可視化流程圖繪制的下方網(wǎng)絡(luò)結(jié)構(gòu)圖。 netron可視化顯示Yolov4網(wǎng)絡(luò)結(jié)構(gòu)可以參照大白的另一篇文章:《netron可視化網(wǎng)絡(luò)結(jié)構(gòu)詳細(xì)安裝流程》 如果不想安裝,也可以直接點(diǎn)擊此鏈接,查看Yolov4可視化流程圖。

4.2 網(wǎng)絡(luò)結(jié)構(gòu)圖

901a1256-af8e-11ee-8b88-92fbcf53809c.jpg

Yolov4的結(jié)構(gòu)圖和Yolov3相比,因?yàn)槎嗔薈SP結(jié)構(gòu),PAN結(jié)構(gòu),如果單純看可視化流程圖,會(huì)覺(jué)得很繞,不過(guò)在繪制出上面的圖形后,會(huì)覺(jué)得豁然開(kāi)朗,其實(shí)整體架構(gòu)和Yolov3是相同的,不過(guò)使用各種新的算法思想對(duì)各個(gè)子結(jié)構(gòu)都進(jìn)行了改進(jìn)。 先整理下Yolov4的五個(gè)基本組件:

CBM:Yolov4網(wǎng)絡(luò)結(jié)構(gòu)中的最小組件,由Conv+Bn+Mish激活函數(shù)三者組成。

CBL:由Conv+Bn+Leaky_relu激活函數(shù)三者組成。

Res unit:借鑒Resnet網(wǎng)絡(luò)中的殘差結(jié)構(gòu),讓網(wǎng)絡(luò)可以構(gòu)建的更深。

CSPX:借鑒CSPNet網(wǎng)絡(luò)結(jié)構(gòu),由三個(gè)卷積層和X個(gè)Res unint模塊Concate組成。

SPP:采用1×1,5×5,9×9,13×13的最大池化的方式,進(jìn)行多尺度融合。

其他基礎(chǔ)操作:

Concat:張量拼接,維度會(huì)擴(kuò)充,和Yolov3中的解釋一樣,對(duì)應(yīng)于cfg文件中的route操作。

add:張量相加,不會(huì)擴(kuò)充維度,對(duì)應(yīng)于cfg文件中的shortcut操作。

Backbone中卷積層的數(shù)量: 和Yolov3一樣,再來(lái)數(shù)一下Backbone里面的卷積層數(shù)量。 每個(gè)CSPX中包含3+2*X個(gè)卷積層,因此整個(gè)主干網(wǎng)絡(luò)Backbone中一共包含2+(3+2*1)+2+(3+2*2)+2+(3+2*8)+2+(3+2*8)+2+(3+2*4)+1=72。 這里大白有些疑惑,按照Yolov3設(shè)計(jì)的傳統(tǒng),這么多卷積層,主干網(wǎng)絡(luò)不應(yīng)該叫CSPDaeknet73嗎????

4.3 核心基礎(chǔ)內(nèi)容

Yolov4本質(zhì)上和Yolov3相差不大,可能有些人會(huì)覺(jué)得失望。 但我覺(jué)得算法創(chuàng)新分為三種方式:

第一種:面目一新的創(chuàng)新,比如Yolov1、Faster-RCNN、Centernet等,開(kāi)創(chuàng)出新的算法領(lǐng)域,不過(guò)這種也是最難的

第二種:守正出奇的創(chuàng)新,比如將圖像金字塔改進(jìn)為特征金字塔

第三種:各種先進(jìn)算法集成的創(chuàng)新,比如不同領(lǐng)域發(fā)表的最新論文的tricks,集成到自己的算法中,卻發(fā)現(xiàn)有出乎意料的改進(jìn)

Yolov4既有第二種也有第三種創(chuàng)新,組合嘗試了大量深度學(xué)習(xí)領(lǐng)域最新論文的20多項(xiàng)研究成果,而且不得不佩服的是作者Alexey在github代碼庫(kù)維護(hù)的頻繁程度。 目前Yolov4代碼的star數(shù)量已經(jīng)1萬(wàn)多,據(jù)我所了解,目前超過(guò)這個(gè)數(shù)量的,目標(biāo)檢測(cè)領(lǐng)域只有Facebook的Detectron(v1-v2)、和Yolo(v1-v3)官方代碼庫(kù)(已停止更新)。 所以Yolov4中的各種創(chuàng)新方式,大白覺(jué)得還是很值得仔細(xì)研究的。 為了便于分析,將Yolov4的整體結(jié)構(gòu)拆分成四大板塊:

90332f52-af8e-11ee-8b88-92fbcf53809c.jpg

大白主要從以上4個(gè)部分對(duì)YoloV4的創(chuàng)新之處進(jìn)行講解,讓大家一目了然。

輸入端:這里指的創(chuàng)新主要是訓(xùn)練時(shí)對(duì)輸入端的改進(jìn),主要包括Mosaic數(shù)據(jù)增強(qiáng)、cmBN、SAT自對(duì)抗訓(xùn)練

BackBone主干網(wǎng)絡(luò):將各種新的方式結(jié)合起來(lái),包括:CSPDarknet53、Mish激活函數(shù)、Dropblock

Neck:目標(biāo)檢測(cè)網(wǎng)絡(luò)在BackBone和最后的輸出層之間往往會(huì)插入一些層,比如Yolov4中的SPP模塊、FPN+PAN結(jié)構(gòu)

Prediction:輸出層的錨框機(jī)制和Yolov3相同,主要改進(jìn)的是訓(xùn)練時(shí)的損失函數(shù)CIOU_Loss,以及預(yù)測(cè)框篩選的nms變?yōu)镈IOU_nms

總體來(lái)說(shuō),Yolov4對(duì)Yolov3的各個(gè)部分都進(jìn)行了改進(jìn)優(yōu)化,下面丟上作者的算法對(duì)比圖。

90515f04-af8e-11ee-8b88-92fbcf53809c.jpg

僅對(duì)比Yolov3和Yolov4,在COCO數(shù)據(jù)集上,同樣的FPS等于83左右時(shí),Yolov4的AP是43,而Yolov3是33,直接上漲了10個(gè)百分點(diǎn)。 不得不服,當(dāng)然可能針對(duì)具體不同的數(shù)據(jù)集效果也不一樣,但總體來(lái)說(shuō),改進(jìn)效果是很優(yōu)秀的,下面大白對(duì)Yolov4的各個(gè)創(chuàng)新點(diǎn)繼續(xù)進(jìn)行深挖。

4.3.1 輸入端創(chuàng)新

考慮到很多同學(xué)GPU顯卡數(shù)量并不是很多,Yolov4對(duì)訓(xùn)練時(shí)的輸入端進(jìn)行改進(jìn),使得訓(xùn)練在單張GPU上也能有不錯(cuò)的成績(jī)。比如數(shù)據(jù)增強(qiáng)Mosaic、cmBN、SAT自對(duì)抗訓(xùn)練。 但感覺(jué)cmBN和SAT影響并不是很大,所以這里主要講解Mosaic數(shù)據(jù)增強(qiáng)。

(1)Mosaic數(shù)據(jù)增強(qiáng)

Yolov4中使用的Mosaic是參考2019年底提出的CutMix數(shù)據(jù)增強(qiáng)的方式,但CutMix只使用了兩張圖片進(jìn)行拼接,而Mosaic數(shù)據(jù)增強(qiáng)則采用了4張圖片,隨機(jī)縮放、隨機(jī)裁剪、隨機(jī)排布的方式進(jìn)行拼接。

這里首先要了解為什么要進(jìn)行Mosaic數(shù)據(jù)增強(qiáng)呢? 在平時(shí)項(xiàng)目訓(xùn)練時(shí),小目標(biāo)的AP一般比中目標(biāo)和大目標(biāo)低很多。而Coco數(shù)據(jù)集中也包含大量的小目標(biāo),但比較麻煩的是小目標(biāo)的分布并不均勻。 首先看下小、中、大目標(biāo)的定義:
2019年發(fā)布的論文《Augmentation for small object detection》對(duì)此進(jìn)行了區(qū)分:

9090a286-af8e-11ee-8b88-92fbcf53809c.jpg

可以看到小目標(biāo)的定義是目標(biāo)框的長(zhǎng)寬0×0~32×32之間的物體。

90a74a2c-af8e-11ee-8b88-92fbcf53809c.jpg

但在整體的數(shù)據(jù)集中,小、中、大目標(biāo)的占比并不均衡。
如上表所示,Coco數(shù)據(jù)集中小目標(biāo)占比達(dá)到41.4%,數(shù)量比中目標(biāo)和大目標(biāo)都要多。 但在所有的訓(xùn)練集圖片中,只有52.3%的圖片有小目標(biāo),而中目標(biāo)和大目標(biāo)的分布相對(duì)來(lái)說(shuō)更加均勻一些。 針對(duì)這種狀況,Yolov4的作者采用了Mosaic數(shù)據(jù)增強(qiáng)的方式。 主要有幾個(gè)優(yōu)點(diǎn):

豐富數(shù)據(jù)集:隨機(jī)使用4張圖片,隨機(jī)縮放,再隨機(jī)分布進(jìn)行拼接,大大豐富了檢測(cè)數(shù)據(jù)集,特別是隨機(jī)縮放增加了很多小目標(biāo),讓網(wǎng)絡(luò)的魯棒性更好。

減少GPU:可能會(huì)有人說(shuō),隨機(jī)縮放,普通的數(shù)據(jù)增強(qiáng)也可以做,但作者考慮到很多人可能只有一個(gè)GPU,因此Mosaic增強(qiáng)訓(xùn)練時(shí),可以直接計(jì)算4張圖片的數(shù)據(jù),使得Mini-batch大小并不需要很大,一個(gè)GPU就可以達(dá)到比較好的效果。

此外,發(fā)現(xiàn)另一研究者的訓(xùn)練方式也值得借鑒,采用的數(shù)據(jù)增強(qiáng)和Mosaic比較類(lèi)似,也是使用4張圖片(不是隨機(jī)分布),但訓(xùn)練計(jì)算loss時(shí),采用“缺啥補(bǔ)啥”的思路: 如果上一個(gè)iteration中,小物體產(chǎn)生的loss不足(比如小于某一個(gè)閾值),則下一個(gè)iteration就用拼接圖;否則就用正常圖片訓(xùn)練,也很有意思。 參考鏈接:https://www.zhihu.com/question/390191723?rf=390194081

4.3.2 BackBone創(chuàng)新

(1)CSPDarknet53

CSPDarknet53是在Yolov3主干網(wǎng)絡(luò)Darknet53的基礎(chǔ)上,借鑒2019年CSPNet的經(jīng)驗(yàn),產(chǎn)生的Backbone結(jié)構(gòu),其中包含了5個(gè)CSP模塊。

90bad948-af8e-11ee-8b88-92fbcf53809c.jpg

這里因?yàn)镃SP模塊比較長(zhǎng),不放到本處,大家也可以點(diǎn)擊Yolov4的netron網(wǎng)絡(luò)結(jié)構(gòu)圖,對(duì)比查看,一目了然。 每個(gè)CSP模塊前面的卷積核的大小都是3*3,因此可以起到下采樣的作用。 因?yàn)锽ackbone有5個(gè)CSP模塊,輸入圖像是608*608,所以特征圖變化的規(guī)律是:608->304->152->76->38->19 經(jīng)過(guò)5次CSP模塊后得到19*19大小的特征圖。 而且作者只在Backbone中采用了Mish激活函數(shù),網(wǎng)絡(luò)后面仍然采用Leaky_relu激活函數(shù)。 我們?cè)倏纯聪伦髡邽樯兑獏⒖?019年的CSPNet,采用CSP模塊? CSPNet論文地址:arxiv.org/pdf/1911.1192 CSPNet全稱(chēng)是Cross Stage Paritial Network,主要從網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)的角度解決推理中從計(jì)算量很大的問(wèn)題。 CSPNet的作者認(rèn)為推理計(jì)算過(guò)高的問(wèn)題是由于網(wǎng)絡(luò)優(yōu)化中的梯度信息重復(fù)導(dǎo)致的。 因此采用CSP模塊先將基礎(chǔ)層的特征映射劃分為兩部分,然后通過(guò)跨階段層次結(jié)構(gòu)將它們合并,在減少了計(jì)算量的同時(shí)可以保證準(zhǔn)確率。 因此Yolov4在主干網(wǎng)絡(luò)Backbone采用CSPDarknet53網(wǎng)絡(luò)結(jié)構(gòu),主要有三個(gè)方面的優(yōu)點(diǎn): 優(yōu)點(diǎn)一:增強(qiáng)CNN的學(xué)習(xí)能力,使得在輕量化的同時(shí)保持準(zhǔn)確性。 優(yōu)點(diǎn)二:降低計(jì)算瓶頸 優(yōu)點(diǎn)三:降低內(nèi)存成本

(2)Mish激活函數(shù)

Mish激活函數(shù)是2019年下半年提出的激活函數(shù) 論文地址:arxiv.org/abs/1908.0868 和Leaky_relu激活函數(shù)的圖形對(duì)比如下:

90dd8632-af8e-11ee-8b88-92fbcf53809c.jpg

Yolov4的Backbone中都使用了Mish激活函數(shù),而后面的網(wǎng)絡(luò)則還是使用leaky_relu函數(shù)。

90ea8922-af8e-11ee-8b88-92fbcf53809c.jpg

Yolov4作者實(shí)驗(yàn)測(cè)試時(shí),使用CSPDarknet53網(wǎng)絡(luò)在ImageNet數(shù)據(jù)集上做圖像分類(lèi)任務(wù),發(fā)現(xiàn)使用了Mish激活函數(shù)的TOP-1和TOP-5的精度比沒(méi)有使用時(shí)都略高一些。 因此在設(shè)計(jì)Yolov4目標(biāo)檢測(cè)任務(wù)時(shí),主干網(wǎng)絡(luò)Backbone還是使用Mish激活函數(shù)。

(3)Dropblock

Yolov4中使用的Dropblock,其實(shí)和常見(jiàn)網(wǎng)絡(luò)中的Dropout功能類(lèi)似,也是緩解過(guò)擬合的一種正則化方式。 Dropblock在2018年提出,論文地址:arxiv.org/pdf/1810.1289 傳統(tǒng)的Dropout很簡(jiǎn)單,一句話就可以說(shuō)的清:隨機(jī)刪除減少神經(jīng)元的數(shù)量,使網(wǎng)絡(luò)變得更簡(jiǎn)單。

9100c0ca-af8e-11ee-8b88-92fbcf53809c.jpg

中間Dropout的方式會(huì)隨機(jī)的刪減丟棄一些信息,但Dropblock的研究者認(rèn)為,卷積層對(duì)于這種隨機(jī)丟棄并不敏感,因?yàn)榫矸e層通常是三層連用:卷積+激活+池化層,池化層本身就是對(duì)相鄰單元起作用。而且即使隨機(jī)丟棄,卷積層仍然可以從相鄰的激活單元學(xué)習(xí)到相同的信息。 因此,在全連接層上效果很好的Dropout在卷積層上效果并不好。 所以右圖Dropblock的研究者則干脆整個(gè)局部區(qū)域進(jìn)行刪減丟棄。 這種方式其實(shí)是借鑒2017年的cutout數(shù)據(jù)增強(qiáng)的方式,cutout是將輸入圖像的部分區(qū)域清零,而Dropblock則是將Cutout應(yīng)用到每一個(gè)特征圖。而且并不是用固定的歸零比率,而是在訓(xùn)練時(shí)以一個(gè)小的比率開(kāi)始,隨著訓(xùn)練過(guò)程線性的增加這個(gè)比率。

Dropblock的研究者與Cutout進(jìn)行對(duì)比驗(yàn)證時(shí),發(fā)現(xiàn)有幾個(gè)特點(diǎn): 優(yōu)點(diǎn)一:Dropblock的效果優(yōu)于Cutout 優(yōu)點(diǎn)二:Cutout只能作用于輸入層,而Dropblock則是將Cutout應(yīng)用到網(wǎng)絡(luò)中的每一個(gè)特征圖上 優(yōu)點(diǎn)三:Dropblock可以定制各種組合,在訓(xùn)練的不同階段可以修改刪減的概率,從空間層面和時(shí)間層面,和Cutout相比都有更精細(xì)的改進(jìn)。 Yolov4中直接采用了更優(yōu)的Dropblock,對(duì)網(wǎng)絡(luò)的正則化過(guò)程進(jìn)行了全面的升級(jí)改進(jìn)。

4.3.3 Neck創(chuàng)新

在目標(biāo)檢測(cè)領(lǐng)域,為了更好的提取融合特征,通常在Backbone和輸出層,會(huì)插入一些層,這個(gè)部分稱(chēng)為Neck。相當(dāng)于目標(biāo)檢測(cè)網(wǎng)絡(luò)的頸部,也是非常關(guān)鍵的。 Yolov4的Neck結(jié)構(gòu)主要采用了SPP模塊、FPN+PAN的方式。

(1)SPP模塊

SPP模塊,其實(shí)在Yolov3中已經(jīng)存在了,在Yolov4的C++代碼文件夾中有一個(gè)Yolov3_spp版本,但有的同學(xué)估計(jì)從來(lái)沒(méi)有使用過(guò),在Yolov4中,SPP模塊仍然是在Backbone主干網(wǎng)絡(luò)之后:

914ad7e6-af8e-11ee-8b88-92fbcf53809c.jpg

作者在SPP模塊中,使用k={1*1,5*5,9*9,13*13}的最大池化的方式,再將不同尺度的特征圖進(jìn)行Concat操作。

91658eb0-af8e-11ee-8b88-92fbcf53809c.jpg

在《DC-SPP-Yolo》文章: 也對(duì)Yolo目標(biāo)檢測(cè)的SPP模塊進(jìn)行了對(duì)比測(cè)試。 和Yolov4作者的研究相同,采用SPP模塊的方式,比單純的使用k*k最大池化的方式,更有效的增加主干特征的接收范圍,顯著的分離了最重要的上下文特征。 Yolov4的作者在使用608*608大小的圖像進(jìn)行測(cè)試時(shí)發(fā)現(xiàn),在COCO目標(biāo)檢測(cè)任務(wù)中,以0.5%的額外計(jì)算代價(jià)將AP50增加了2.7%,因此Yolov4中也采用了SPP模塊。

(2)FPN+PAN

PAN結(jié)構(gòu)比較有意思,看了網(wǎng)上Yolov4關(guān)于這個(gè)部分的講解,大多都是講的比較籠統(tǒng)的,而PAN是借鑒圖像分割領(lǐng)域PANet的創(chuàng)新點(diǎn),有些同學(xué)可能不是很清楚。 下面大白將這個(gè)部分拆解開(kāi)來(lái),看下Yolov4中是如何設(shè)計(jì)的。 Yolov3結(jié)構(gòu): 我們先來(lái)看下Yolov3中Neck的FPN結(jié)構(gòu)

91790ef4-af8e-11ee-8b88-92fbcf53809c.jpg

可以看到經(jīng)過(guò)幾次下采樣,三個(gè)紫色箭頭指向的地方,輸出分別是76*76、38*38、19*19。 以及最后的Prediction中用于預(yù)測(cè)的三個(gè)特征圖①19*19*255、②38*38*255、③76*76*255。 我們將Neck部分用立體圖畫(huà)出來(lái),更直觀的看下兩部分之間是如何通過(guò)FPN結(jié)構(gòu)融合的。

wKgaomWfVcCAKH4NAAGTxwqR2EY657.png

如圖所示,F(xiàn)PN是自頂向下的,將高層的特征信息通過(guò)上采樣的方式進(jìn)行傳遞融合,得到進(jìn)行預(yù)測(cè)的特征圖。 Yolov4結(jié)構(gòu): 而Yolov4中Neck這部分除了使用FPN外,還在此基礎(chǔ)上使用了PAN結(jié)構(gòu):

91b34a06-af8e-11ee-8b88-92fbcf53809c.jpg

前面CSPDarknet53中講到,每個(gè)CSP模塊前面的卷積核都是3*3大小,相當(dāng)于下采樣操作。 因此可以看到三個(gè)紫色箭頭處的特征圖是76*76、38*38、19*19。 以及最后Prediction中用于預(yù)測(cè)的三個(gè)特征圖:①76*76*255,②38*38*255,③19*19*255。 我們也看下Neck部分的立體圖像,看下兩部分是如何通過(guò)FPN+PAN結(jié)構(gòu)進(jìn)行融合的。

wKgaomWfVdqARtCZAAJta5nCjJU943.png

和Yolov3的FPN層不同,Yolov4在FPN層的后面還添加了一個(gè)自底向上的特征金字塔。 其中包含兩個(gè)PAN結(jié)構(gòu)。 這樣結(jié)合操作,F(xiàn)PN層自頂向下傳達(dá)強(qiáng)語(yǔ)義特征,而特征金字塔則自底向上傳達(dá)強(qiáng)定位特征,兩兩聯(lián)手,從不同的主干層對(duì)不同的檢測(cè)層進(jìn)行參數(shù)聚合,這樣的操作確實(shí)很皮。 FPN+PAN借鑒的是18年CVPR的PANet,當(dāng)時(shí)主要應(yīng)用于圖像分割領(lǐng)域,但Alexey將其拆分應(yīng)用到Y(jié)olov4中,進(jìn)一步提高特征提取的能力。 不過(guò)這里需要注意幾點(diǎn): 注意一: Yolov3的FPN層輸出的三個(gè)大小不一的特征圖①②③直接進(jìn)行預(yù)測(cè) 但Yolov4的FPN層,只使用最后的一個(gè)76*76特征圖①,而經(jīng)過(guò)兩次PAN結(jié)構(gòu),輸出預(yù)測(cè)的特征圖②和③。 這里的不同也體現(xiàn)在cfg文件中,這一點(diǎn)有很多同學(xué)之前不太明白, 比如Yolov3.cfg最后的三個(gè)Yolo層, 第一個(gè)Yolo層是最小的特征圖19*19,mask=6,7,8,對(duì)應(yīng)最大的anchor box。 第二個(gè)Yolo層是中等的特征圖38*38,mask=3,4,5,對(duì)應(yīng)中等的anchor box。 第三個(gè)Yolo層是最大的特征圖76*76,mask=0,1,2,對(duì)應(yīng)最小的anchor box。 而Yolov4.cfg則恰恰相反 第一個(gè)Yolo層是最大的特征圖76*76,mask=0,1,2,對(duì)應(yīng)最小的anchor box。 第二個(gè)Yolo層是中等的特征圖38*38,mask=3,4,5,對(duì)應(yīng)中等的anchor box。 第三個(gè)Yolo層是最小的特征圖19*19,mask=6,7,8,對(duì)應(yīng)最大的anchor box。 注意點(diǎn)二: 原本的PANet網(wǎng)絡(luò)的PAN結(jié)構(gòu)中,兩個(gè)特征圖結(jié)合是采用shortcut操作,而Yolov4中則采用concat(route)操作,特征圖融合后的尺寸發(fā)生了變化。

91f7e5da-af8e-11ee-8b88-92fbcf53809c.jpg

這里也可以對(duì)應(yīng)Yolov4的netron網(wǎng)絡(luò)圖查看,很有意思。

5.YoloV4相關(guān)代碼

5.1 python代碼

代碼地址:https://github.com/Tianxiaomo/pytorch-Yolov4 作者的訓(xùn)練和測(cè)試推理代碼都已經(jīng)完成

5.2 C++代碼

Yolov4作者Alexey的代碼,俄羅斯的大神,應(yīng)該是個(gè)獨(dú)立研究員,更新算法的頻繁程度令人佩服。 在Yolov3作者Joseph Redmon宣布停止更新Yolo算法之后,Alexey憑借對(duì)于Yolov3算法的不斷探索研究,贏得了Yolov3作者的認(rèn)可,發(fā)布了Yolov4。 代碼地址:https://github.com/AlexeyAB/darknet

5.3 python版本的Tensorrt代碼

目前測(cè)試有效的有tensorflow版本:weights->pb->trt 代碼地址:https://github.com/hunglc007/tensorflow-Yolov4-tflite

5.4 C++版本的Tensorrtrt代碼

代碼地址:https://github.com/wang-xinyu/tensorrtx/tree/master/Yolov4 作者自定義了mish激活函數(shù)的plugin層,Tensorrt加速后速度還是挺快的。

6.相關(guān)數(shù)據(jù)集下載

項(xiàng)目中,目標(biāo)檢測(cè)算法應(yīng)該的非常多非常多,比如人臉識(shí)別,比如疫情期間的口罩人臉識(shí)別,比如車(chē)流統(tǒng)計(jì),人流統(tǒng)計(jì)等等。 因此大白也會(huì)將不錯(cuò)的值得一試的目標(biāo)檢測(cè)數(shù)據(jù)集匯總到此處,方便需要的同學(xué)進(jìn)行下載。

6.1 口罩遮擋人臉數(shù)據(jù)集

數(shù)據(jù)集詳情:由武漢大學(xué)多媒體研究中心發(fā)起,目前是全球最大的口罩遮擋人臉數(shù)據(jù)集。 分為真實(shí)口罩人臉和模擬口罩人臉兩部分,真實(shí)口罩人臉包含525人的5000張口罩人臉和9萬(wàn)張正常人臉。模擬口罩人臉包含1萬(wàn)個(gè)人共50萬(wàn)張模擬人臉數(shù)據(jù)集。 應(yīng)用項(xiàng)目:人臉檢測(cè)、人臉識(shí)別 數(shù)據(jù)集地址:https://github.com/X-zhangyang/Real-World-Masked-Face-Dataset

6.2 Wider Face人臉數(shù)據(jù)集

數(shù)據(jù)集詳情:香港中文大學(xué)發(fā)起的,包含3萬(wàn)張圖片共40萬(wàn)張人臉。 應(yīng)用項(xiàng)目:人臉檢測(cè) 數(shù)據(jù)集地址:http://shuoyang1213.me/WIDERFACE/WiderFace_Results.html

6.3 Wider Person擁擠場(chǎng)景行人數(shù)據(jù)集

數(shù)據(jù)集詳情:多種場(chǎng)景比較擁擠場(chǎng)景的行人檢測(cè)數(shù)據(jù)集,包含13382張圖片,共計(jì)40萬(wàn)個(gè)不同遮擋程度的人體。 應(yīng)用項(xiàng)目:人體檢測(cè) 數(shù)據(jù)集地址:http://www.cbsr.ia.ac.cn/users/sfzhang/WiderPerson/ 因?yàn)楣ぷ髟颍瑫?huì)搜集大量的各類(lèi)公開(kāi)應(yīng)用場(chǎng)景數(shù)據(jù)集,如果有同學(xué)需要其他場(chǎng)景或者其他項(xiàng)目的,也可以留言,或者發(fā)送郵件到j(luò)iangdabai@126.com,也會(huì)將對(duì)應(yīng)的數(shù)據(jù)集更新到此處。

7.不斷更新ing

在深度學(xué)習(xí)的圖像領(lǐng)域,肯定會(huì)涉及目標(biāo)檢測(cè),而在目標(biāo)檢測(cè)中,Yolov3是非常經(jīng)典,必須要學(xué)習(xí)的算法,有些同學(xué),特別新接觸的同學(xué),剛學(xué)習(xí)時(shí)會(huì)覺(jué)得yolo算法很繁瑣。 但我發(fā)現(xiàn),網(wǎng)上很多的教程其實(shí)講的還是比較籠統(tǒng),并不適合小白學(xué)習(xí)。 所以大白也在耗盡洪荒之力,在準(zhǔn)備Yolov3和Yolov4及相關(guān)的基礎(chǔ)入門(mén)視頻,讓大家看完就能明白整體的流程和各種算法細(xì)節(jié),大家可以先收藏,后期制作好后會(huì)更新到此處。 希望和大家一起努力,在人工智能深度學(xué)習(xí)領(lǐng)域一起進(jìn)步,一起提升,一起變強(qiáng)!

審核編輯:黃飛

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4710

    瀏覽量

    95399
  • 網(wǎng)絡(luò)結(jié)構(gòu)

    關(guān)注

    0

    文章

    48

    瀏覽量

    11598
  • python
    +關(guān)注

    關(guān)注

    56

    文章

    4827

    瀏覽量

    86761
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5561

    瀏覽量

    122796

原文標(biāo)題:深入淺出Yolov3和Yolov4

文章出處:【微信號(hào):vision263com,微信公眾號(hào):新機(jī)器視覺(jué)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    基于YOLOv3的紅綠燈檢測(cè)識(shí)別(Python源碼可直接運(yùn)行)

    基于YOLOv3的訓(xùn)練好的權(quán)重,不需要自己重新訓(xùn)練,只需要調(diào)用yolov3.weights,可以做到視頻或圖片中紅綠燈的檢測(cè)識(shí)別。
    的頭像 發(fā)表于 09-18 15:43 ?5363次閱讀

    YOLOv4模型轉(zhuǎn)換為IR的說(shuō)明,無(wú)法將模型轉(zhuǎn)換為T(mén)ensorFlow2格式怎么解決?

    遵照 將 YOLOv4 模型轉(zhuǎn)換為 IR 的 說(shuō)明,但無(wú)法將模型轉(zhuǎn)換為 TensorFlow2* 格式。 將 YOLOv4 darknet 轉(zhuǎn)換為 Keras 模型時(shí),收到 TypeError: buffer is too small for requested arr
    發(fā)表于 03-07 07:14

    深入淺出Android

    深入淺出Android
    發(fā)表于 08-20 10:14

    深入淺出Android

    深入淺出Android
    發(fā)表于 04-26 10:48

    labview調(diào)用yolo 目標(biāo)檢測(cè)速度太慢?yolov4:速度和精度的完美結(jié)合,性能和精度碾壓yolov3

    本帖最后由 wcl86 于 2021-5-10 08:56 編輯 yolov4:速度差不多的精度碾壓,精度差不多的速度碾壓!經(jīng)過(guò)測(cè)試yolov4在相同速度下,精度完全碾壓yolo-v3,以及
    發(fā)表于 01-05 09:22

    LabVIEW調(diào)用YoloV4類(lèi)庫(kù)Demo

    本帖最后由 efans_776edd 于 2021-1-27 10:05 編輯 最近看了龍哥的公眾號(hào)關(guān)于YoloV4的文章,自己也嘗試了一下,最后搞一個(gè)Demo,在這里分享一下.說(shuō)明:1
    發(fā)表于 01-27 10:02

    yolov3 GPU加速 AI 目標(biāo)檢測(cè)

    回復(fù)后獲取yolov4測(cè)試demo程序:鏈接:https://pan.baidu.com/s/1XavCXSIOYaukCzER7eZQ3g提取碼:[hide] 3icg [/hide]
    發(fā)表于 05-10 22:49

    多棒主動(dòng)模式怎樣才能在yolov3運(yùn)行呢

    如何在RK1808MO上部署yolov3多棒主動(dòng)模式呢?多棒主動(dòng)模式怎樣才能在yolov3運(yùn)行呢?
    發(fā)表于 02-16 06:50

    基于Tengine實(shí)現(xiàn)yolov4的cpu推理講解

    本期講解便是基于 Tengine 實(shí)現(xiàn) yolov4的 cpu推理。完成動(dòng)機(jī):主要是為了熟悉tengine的推理部署流程一、模型轉(zhuǎn)換采用下面鏈接中yolov4的...
    的頭像 發(fā)表于 12-15 00:19 ?1069次閱讀

    基于YOLOv3等的機(jī)械臂藥盒智能抓取方法

    基于YOLOv3等的機(jī)械臂藥盒智能抓取方法
    發(fā)表于 06-23 15:43 ?61次下載

    基于Tengine實(shí)現(xiàn)yolov4的cpu推理

    本期講解便是基于 Tengine 實(shí)現(xiàn) yolov4的 cpu推理。完成動(dòng)機(jī):主要是為了熟悉tengine的推理部署流程一、模型轉(zhuǎn)換采用下面鏈接中yolov4的...
    發(fā)表于 01-26 17:48 ?4次下載
    基于Tengine實(shí)現(xiàn)<b class='flag-5'>yolov4</b>的cpu推理

    Yolov3&amp;Yolov4核心基礎(chǔ)知識(shí)

    Yolov3是目標(biāo)檢測(cè)Yolo系列非常非常經(jīng)典的算法,不過(guò)很多同學(xué)拿到Yolov3或者Yolov4的cfg文件時(shí),并不知道如何直觀的可視化查看網(wǎng)絡(luò)結(jié)構(gòu)。如果純粹看cfg里面的內(nèi)容,肯定會(huì)一臉懵逼。
    的頭像 發(fā)表于 04-06 10:42 ?2420次閱讀

    Nvidia Jetson Nano面罩Yolov4探測(cè)器

    電子發(fā)燒友網(wǎng)站提供《Nvidia Jetson Nano面罩Yolov4探測(cè)器.zip》資料免費(fèi)下載
    發(fā)表于 11-18 12:11 ?0次下載
    Nvidia Jetson Nano面罩<b class='flag-5'>Yolov4</b>探測(cè)器

    在KV260上運(yùn)行Yolov4 tiny

    電子發(fā)燒友網(wǎng)站提供《在KV260上運(yùn)行Yolov4 tiny.zip》資料免費(fèi)下載
    發(fā)表于 06-14 14:25 ?2次下載
    在KV260上運(yùn)行<b class='flag-5'>Yolov4</b> tiny

    基于DeepSORT YOLOv4的目標(biāo)跟蹤

    電子發(fā)燒友網(wǎng)站提供《基于DeepSORT YOLOv4的目標(biāo)跟蹤.zip》資料免費(fèi)下載
    發(fā)表于 06-27 11:20 ?0次下載
    基于DeepSORT <b class='flag-5'>YOLOv4</b>的目標(biāo)跟蹤