一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

主要從人臉檢測方面來講解目標(biāo)檢測算法

WpOh_rgznai100 ? 來源:陳年麗 ? 2019-07-08 09:45 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在目標(biāo)檢測領(lǐng)域,可以劃分為人臉檢測與通用目標(biāo)檢測,往往人臉這方面會有專門的算法(包括人臉檢測、人臉識別、人臉其他屬性的識別等),并且和通用目標(biāo)檢測(識別)會有一定的差別。這主要來源于人臉的特殊性(譬如有時候目標(biāo)比較小、人臉之間特征不明顯、遮擋問題等),本文將主要從人臉檢測方面來講解目標(biāo)檢測。

目前主要的人臉檢測方法分類

當(dāng)前,人臉檢測方法主要包含兩個區(qū)域:傳統(tǒng)人臉檢測算法和基于深度學(xué)習(xí)的人臉檢測算法。傳統(tǒng)人臉檢測算法主要可以分為 4 類:

基于知識的人臉檢測方法;

基于模型的人臉檢測方法;

基于特征的人臉檢測方法;

基于外觀的人臉檢測方法。

2006 年,Hinton 首次提出深度學(xué)習(xí)(Deep Learning)的概念,它是通過組合低層的特征形成更高層的抽象特征。隨后研究者將深度學(xué)習(xí)應(yīng)用在人臉檢測領(lǐng)域,主要集中在基于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的人臉檢測研究,如基于級聯(lián)卷積神經(jīng)網(wǎng)絡(luò)的人臉檢測(Cascade CNN)、基于多任務(wù)卷積神經(jīng)網(wǎng)絡(luò)的人臉檢測(MTCNN)、Facebox 等,很大程度上提高了人臉檢測的魯棒性。

當(dāng)然,像Faster RCNN、YOLO、SSD等通用目標(biāo)檢測算法也有用在人臉檢測領(lǐng)域,也可以實現(xiàn)比較不錯的結(jié)果,但是和專門人臉檢測算法比還是有差別。

如何檢測圖片中不同大小的人臉?

傳統(tǒng)人臉檢測算法中針對不同大小人臉主要有兩個策略:

縮放圖片的大?。▓D像金字塔如圖 1 所示);

圖1 圖像金字塔

縮放滑動窗的大?。ㄈ鐖D 2 所示)。

圖 2 縮放滑動窗口

基于深度學(xué)習(xí)的人臉檢測算法中,針對不同大小人臉主要也有兩個策略,但和傳統(tǒng)人臉檢測算法有點區(qū)別,主要包括:

縮放圖片大小:不過也可以通過縮放滑動窗的方式,基于深度學(xué)習(xí)的滑動窗人臉檢測方式效率會很慢存在多次重復(fù)卷積,所以要采用全卷積神經(jīng)網(wǎng)絡(luò)(FCN),用 FCN 將不能用滑動窗的方法。

通過 anchor box 的方法:如圖 3 所示,不要和圖 2 混淆,這里是通過特征圖預(yù)測原圖的 anchorbox 區(qū)域,具體在 Facebox 中有描述。

圖 3 anchor box

如何設(shè)定算法檢測最小人臉尺寸?

主要是看滑動窗的最小窗口和 anchorbox 的最小窗口。

滑動窗的方法

假設(shè)通過 12×12 的滑動窗,不對原圖做縮放的話,就可以檢測原圖中 12×12 的最小人臉。

但是往往通常給定最小人臉 a=40、或者 a=80,以這么大的輸入訓(xùn)練 CNN 進行人臉檢測不太現(xiàn)實,速度會很慢,并且下一次需求最小人臉 a=30*30 又要去重新訓(xùn)練,通常還會是 12×12 的輸入,為滿足最小人臉框 a,只需要在檢測的時候?qū)υ瓐D進行縮放即可:w=w×12/a。

anchorbox 的方法

原理類似,這里主要看 anchorbox 的最小 box,通過可以通過縮放輸入圖片實現(xiàn)最小人臉的設(shè)定。

如何定位人臉的位置

滑動窗的方式:

滑動窗的方式是基于分類器識別為人臉的框的位置確定最終的人臉。

圖 4 滑動窗

FCN 的方式:

通過特征圖映射到原圖的方式確定最終識別為人臉的位置,特征圖映射到原圖人臉框是要看特征圖相比較于原圖有多少次縮放(縮放主要查看卷積的步長和池化層)。

假設(shè)特征圖上(2,3)的點,可粗略計算縮放比例為 8 倍,原圖中的點應(yīng)該是(16,24);如果訓(xùn)練的 FCN 為 12*12 的輸入,對于原圖框位置應(yīng)該是(16,24,12,12)。

當(dāng)然這只是估計位置,具體的在構(gòu)建網(wǎng)絡(luò)時要加入回歸框的預(yù)測,主要是相對于原圖框的一個平移與縮放。

通過 anchor box 的方式:

通過特征圖映射到圖的窗口,通過特征圖映射到原圖到多個框的方式確定最終識別為人臉的位置。

如何通過一個人臉的多個框確定最終人臉框位置?

圖 5 通過 NMS 得到最終的人臉位置

NMS 改進版本有很多,最原始的 NMS 就是判斷兩個框的交集。如果交集大于設(shè)定的閾值,將刪除其中一個框。

那么兩個框應(yīng)該怎么選擇刪除哪一個呢?因為模型輸出有概率值,一般會優(yōu)選選擇概率小的框刪除。

基于級聯(lián)卷積神經(jīng)網(wǎng)絡(luò)的人臉檢測(Cascade CNN)

Cascade CNN 的框架結(jié)構(gòu)是什么?

級聯(lián)結(jié)構(gòu)中有 6 個 CNN,3 個 CNN 用于人臉非人臉二分類,另外 3 個 CNN 用于人臉區(qū)域的邊框校正。

給定一幅圖像,12-net 密集掃描整幅圖片,拒絕 90% 以上的窗口。剩余的窗口輸入到 12-calibration-net 中調(diào)整大小和位置,以接近真實目標(biāo)。接著輸入到 NMS 中,消除高度重疊窗口。下面網(wǎng)絡(luò)與上面類似。

Cascade CNN 人臉校驗?zāi)K原理是什么?

該網(wǎng)絡(luò)用于窗口校正,使用三個偏移變量:

Xn:水平平移量,Yn:垂直平移量,Sn:寬高比縮放。

候選框口(x,y,w,h)中,(x,y)表示左上點坐標(biāo),(w,h)表示寬和高。

我們要將窗口的控制坐標(biāo)調(diào)整為:

這項工作中,我們有種模式。偏移向量三個參數(shù)包括以下值:

同時對偏移向量三個參數(shù)進行校正。

訓(xùn)練樣本應(yīng)該如何準(zhǔn)備?

人臉樣本;

非人臉樣本。

級聯(lián)的好處

最初階段的網(wǎng)絡(luò)可以比較簡單,判別閾值可以設(shè)得寬松一點,這樣就可以在保持較高召回率的同時排除掉大量的非人臉窗口;

最后階段網(wǎng)絡(luò)為了保證足夠的性能,因此一般設(shè)計的比較復(fù)雜,但由于只需要處理前面剩下的窗口,因此可以保證足夠的效率;

級聯(lián)的思想可以幫助我們?nèi)ソM合利用性能較差的分類器,同時又可以獲得一定的效率保證。

基于多任務(wù)卷積神經(jīng)網(wǎng)絡(luò)的人臉檢測(MTCNN)

MTCNN 模型有三個子網(wǎng)絡(luò),分別是 P-Net,R-Net,O-Net。

為了檢測不同大小的人臉,開始需要構(gòu)建圖像金字塔,先經(jīng)過 PNet 模型,輸出人臉類別和邊界框(邊界框的預(yù)測為了對特征圖映射到原圖的框平移和縮放得到更準(zhǔn)確的框),將識別為人臉的框映射到原圖框位置可以獲取 patch,之后每一個 patch 通過 resize 的方式輸入到 RNet,識別為人臉的框并且預(yù)測更準(zhǔn)確的人臉框,最后 RNet 識別為人臉的的每一個 patch 通過 resize 的方式輸入到 ONet,跟 RNet 類似,關(guān)鍵點是為了在訓(xùn)練集有限情況下使模型更魯棒。

還要注意一點:構(gòu)建圖像金字塔的的縮放比例要保留,為了將邊界框映射到最開始原圖上。

Facebox

(1)Rapidly Digested Convolutional Layers(RDCL)

在網(wǎng)絡(luò)前期,使用 RDCL 快速的縮小 feature map 的大小。主要設(shè)計原則如下:

Conv1, Pool1, Conv2 和 Pool2 的 stride 分別是 4, 2, 2 和 2。這樣整個 RDCL 的 stride 就是 32,可以很快把 feature map 的尺寸變小。

卷積(或 pooling)核太大速度就慢,太小覆蓋信息又不足。權(quán)衡之后,將 Conv1, Pool1, Conv2 和 Pool2 的核大小分別設(shè)為 7x7,3x3,5x5,3x3。

使用 CReLU 來保證輸出維度不變的情況下,減少卷積核數(shù)量。

(2)Multiple Scale Convolutional Layers(MSCL)

在網(wǎng)絡(luò)后期,使用 MSCL 更好地檢測不同尺度的人臉。主要設(shè)計原則有:

類似于 SSD,在網(wǎng)絡(luò)的不同層進行檢測;

采用 Inception 模塊。由于 Inception 包含多個不同的卷積分支,因此可以進一步使得感受野多樣化。

(3)Anchor densification strategy

為了 anchor 密度均衡,可以對密度不足的 anchor 以中心進行偏移加倍,如下圖所示:

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 人臉檢測
    +關(guān)注

    關(guān)注

    0

    文章

    86

    瀏覽量

    16850
  • cnn
    cnn
    +關(guān)注

    關(guān)注

    3

    文章

    354

    瀏覽量

    22742
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    人臉檢測算法及新的快速算法

    人臉檢測算法及新的快速算法人臉識別設(shè)備憑借著便捷的應(yīng)用,以及更加新潮的技術(shù),俘獲了不少人的好感。于是,它的應(yīng)用也在日益的變得更加的廣泛。由中國電子學(xué)會主辦的全國圖形圖像技術(shù)應(yīng)用大會,行業(yè)專家將介紹
    發(fā)表于 09-26 15:13

    【TL6748 DSP申請】基于TMS320C6748 DSP人臉檢測及跟蹤

    芯片上方案比較少。我們嘗試在定點DSP上處理人臉檢測效率低,沒有達到我們預(yù)期的目的。而TMS620C6748芯片是我們另外一個選擇。該方案需要通過視頻采集圖像,利用圖像檢測算法獲取運動目標(biāo)
    發(fā)表于 09-10 11:09

    ARM嵌入式環(huán)境中FDDB第一的人臉檢測算法的運行

    YSQ(于仕琪)人臉檢測介紹:YSQ人臉檢測算法實現(xiàn)快速從視頻幀中檢測人臉并提取關(guān)鍵信息,支持多
    發(fā)表于 07-29 06:49

    PowerPC小目標(biāo)檢測算法怎么實現(xiàn)?

    檢測系統(tǒng)在低功耗、輕小型化等方面提出了更高的要求。因此,完成小目標(biāo)檢測任務(wù)不僅需要尋求合理的小目標(biāo)檢測算
    發(fā)表于 08-09 07:07

    分享一款高速人臉檢測算法

    目前優(yōu)化了一款高速人臉檢測算法,在 ARM設(shè)備的A73單核CPU(圖像大小:860*540最小人臉大小:60*60)速度可以高達10-15ms每幀,真正的實時人臉
    發(fā)表于 12-15 07:01

    RK3399Pro是怎樣去移植Tencent的mtcnn人臉檢測算法

    RK3399Pro是怎樣去移植Tencent的mtcnn人臉檢測算法的?有哪些移植步驟?
    發(fā)表于 02-15 06:15

    基于YOLOX目標(biāo)檢測算法的改進

    系統(tǒng)的關(guān)鍵任務(wù)之一,其主要的功能是檢測前方道路上出現(xiàn)的目標(biāo)的空間位置和目標(biāo)類別。傳統(tǒng)目標(biāo)檢測算法
    發(fā)表于 03-06 13:55

    基于碼本模型的運動目標(biāo)檢測算法

    本內(nèi)容提供了基于碼本模型的運動目標(biāo)檢測算法
    發(fā)表于 05-19 10:54 ?32次下載
    基于碼本模型的運動<b class='flag-5'>目標(biāo)</b><b class='flag-5'>檢測算法</b>

    改進的ViBe運動目標(biāo)檢測算法_劉春

    改進的ViBe運動目標(biāo)檢測算法_劉春
    發(fā)表于 03-19 11:41 ?0次下載

    深度學(xué)習(xí)在人臉檢測中的應(yīng)用

    本文將主要從人臉檢測方面來講解目標(biāo)檢測
    的頭像 發(fā)表于 07-08 09:54 ?3422次閱讀

    基于深度學(xué)習(xí)的目標(biāo)檢測算法

    整體框架 目標(biāo)檢測算法主要包括:【兩階段】目標(biāo)檢測算法、【多階段】目標(biāo)
    的頭像 發(fā)表于 04-30 10:22 ?1.1w次閱讀
    基于深度學(xué)習(xí)的<b class='flag-5'>目標(biāo)</b><b class='flag-5'>檢測算法</b>

    淺談紅外弱小目標(biāo)檢測算法

    紅外單幀弱小目標(biāo)檢測算法主要通過圖像預(yù)處理突出小目標(biāo)同時抑制背景噪聲干擾,之后采用閾值分割提取疑似目標(biāo),最后根據(jù)特征信息進行
    的頭像 發(fā)表于 08-04 17:20 ?7421次閱讀

    無Anchor的目標(biāo)檢測算法邊框回歸策略

    導(dǎo)讀 本文主要講述:1.無Anchor的目標(biāo)檢測算法:YOLOv1,CenterNet,CornerNet的邊框回歸策略;2.有Anchor的目標(biāo)
    的頭像 發(fā)表于 07-17 11:17 ?1448次閱讀
    無Anchor的<b class='flag-5'>目標(biāo)</b><b class='flag-5'>檢測算法</b>邊框回歸策略

    基于強化學(xué)習(xí)的目標(biāo)檢測算法案例

    摘要:基于強化學(xué)習(xí)的目標(biāo)檢測算法檢測過程中通常采用預(yù)定義搜索行為,其產(chǎn)生的候選區(qū)域形狀和尺寸變化單一,導(dǎo)致目標(biāo)檢測精確度較低。為此,在基于
    發(fā)表于 07-19 14:35 ?0次下載

    基于Transformer的目標(biāo)檢測算法

    掌握基于Transformer的目標(biāo)檢測算法的思路和創(chuàng)新點,一些Transformer論文涉及的新概念比較多,話術(shù)沒有那么通俗易懂,讀完論文仍然不理解算法的細(xì)節(jié)部分。
    發(fā)表于 08-16 10:51 ?842次閱讀
    基于Transformer的<b class='flag-5'>目標(biāo)</b><b class='flag-5'>檢測算法</b>