一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度學(xué)習(xí)在人臉檢測(cè)中的應(yīng)用

WpOh_rgznai100 ? 來源:YXQ ? 2019-07-08 09:54 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在目標(biāo)檢測(cè)領(lǐng)域,可以劃分為人臉檢測(cè)與通用目標(biāo)檢測(cè),往往人臉這方面會(huì)有專門的算法(包括人臉檢測(cè)、人臉識(shí)別、人臉其他屬性的識(shí)別等),并且和通用目標(biāo)檢測(cè)(識(shí)別)會(huì)有一定的差別。這主要來源于人臉的特殊性(譬如有時(shí)候目標(biāo)比較小、人臉之間特征不明顯、遮擋問題等),本文將主要從人臉檢測(cè)方面來講解目標(biāo)檢測(cè)。

目前主要的人臉檢測(cè)方法分類

當(dāng)前,人臉檢測(cè)方法主要包含兩個(gè)區(qū)域:傳統(tǒng)人臉檢測(cè)算法和基于深度學(xué)習(xí)的人臉檢測(cè)算法。傳統(tǒng)人臉檢測(cè)算法主要可以分為 4 類:

基于知識(shí)的人臉檢測(cè)方法;

基于模型的人臉檢測(cè)方法;

基于特征的人臉檢測(cè)方法;

基于外觀的人臉檢測(cè)方法。

2006 年,Hinton 首次提出深度學(xué)習(xí)(Deep Learning)的概念,它是通過組合低層的特征形成更高層的抽象特征。隨后研究者將深度學(xué)習(xí)應(yīng)用在人臉檢測(cè)領(lǐng)域,主要集中在基于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的人臉檢測(cè)研究,如基于級(jí)聯(lián)卷積神經(jīng)網(wǎng)絡(luò)的人臉檢測(cè)(Cascade CNN)、基于多任務(wù)卷積神經(jīng)網(wǎng)絡(luò)的人臉檢測(cè)(MTCNN)、Facebox 等,很大程度上提高了人臉檢測(cè)的魯棒性。

當(dāng)然,像Faster RCNN、YOLO、SSD等通用目標(biāo)檢測(cè)算法也有用在人臉檢測(cè)領(lǐng)域,也可以實(shí)現(xiàn)比較不錯(cuò)的結(jié)果,但是和專門人臉檢測(cè)算法比還是有差別。

如何檢測(cè)圖片中不同大小的人臉?

傳統(tǒng)人臉檢測(cè)算法中針對(duì)不同大小人臉主要有兩個(gè)策略:

縮放圖片的大?。▓D像金字塔如圖 1 所示);

圖1 圖像金字塔

縮放滑動(dòng)窗的大?。ㄈ鐖D 2 所示)。

圖 2 縮放滑動(dòng)窗口

基于深度學(xué)習(xí)的人臉檢測(cè)算法中,針對(duì)不同大小人臉主要也有兩個(gè)策略,但和傳統(tǒng)人臉檢測(cè)算法有點(diǎn)區(qū)別,主要包括:

縮放圖片大小:不過也可以通過縮放滑動(dòng)窗的方式,基于深度學(xué)習(xí)的滑動(dòng)窗人臉檢測(cè)方式效率會(huì)很慢存在多次重復(fù)卷積,所以要采用全卷積神經(jīng)網(wǎng)絡(luò)(FCN),用 FCN 將不能用滑動(dòng)窗的方法。

通過 anchor box 的方法:如圖 3 所示,不要和圖 2 混淆,這里是通過特征圖預(yù)測(cè)原圖的 anchorbox 區(qū)域,具體在 Facebox 中有描述。

圖 3 anchor box

如何設(shè)定算法檢測(cè)最小人臉尺寸?

主要是看滑動(dòng)窗的最小窗口和 anchorbox 的最小窗口。

滑動(dòng)窗的方法

假設(shè)通過 12×12 的滑動(dòng)窗,不對(duì)原圖做縮放的話,就可以檢測(cè)原圖中 12×12 的最小人臉。

但是往往通常給定最小人臉 a=40、或者 a=80,以這么大的輸入訓(xùn)練 CNN 進(jìn)行人臉檢測(cè)不太現(xiàn)實(shí),速度會(huì)很慢,并且下一次需求最小人臉 a=30*30 又要去重新訓(xùn)練,通常還會(huì)是 12×12 的輸入,為滿足最小人臉框 a,只需要在檢測(cè)的時(shí)候?qū)υ瓐D進(jìn)行縮放即可:w=w×12/a。

anchorbox 的方法

原理類似,這里主要看 anchorbox 的最小 box,通過可以通過縮放輸入圖片實(shí)現(xiàn)最小人臉的設(shè)定。

如何定位人臉的位置

滑動(dòng)窗的方式:

滑動(dòng)窗的方式是基于分類器識(shí)別為人臉的框的位置確定最終的人臉。

圖 4 滑動(dòng)窗

FCN 的方式:

通過特征圖映射到原圖的方式確定最終識(shí)別為人臉的位置,特征圖映射到原圖人臉框是要看特征圖相比較于原圖有多少次縮放(縮放主要查看卷積的步長和池化層)。

假設(shè)特征圖上(2,3)的點(diǎn),可粗略計(jì)算縮放比例為 8 倍,原圖中的點(diǎn)應(yīng)該是(16,24);如果訓(xùn)練的 FCN 為 12*12 的輸入,對(duì)于原圖框位置應(yīng)該是(16,24,12,12)。

當(dāng)然這只是估計(jì)位置,具體的在構(gòu)建網(wǎng)絡(luò)時(shí)要加入回歸框的預(yù)測(cè),主要是相對(duì)于原圖框的一個(gè)平移與縮放。

通過 anchor box 的方式:

通過特征圖映射到圖的窗口,通過特征圖映射到原圖到多個(gè)框的方式確定最終識(shí)別為人臉的位置。

如何通過一個(gè)人臉的多個(gè)框確定最終人臉框位置?

圖 5 通過 NMS 得到最終的人臉位置

NMS 改進(jìn)版本有很多,最原始的 NMS 就是判斷兩個(gè)框的交集。如果交集大于設(shè)定的閾值,將刪除其中一個(gè)框。

那么兩個(gè)框應(yīng)該怎么選擇刪除哪一個(gè)呢?因?yàn)槟P洼敵鲇懈怕手?,一般?huì)優(yōu)選選擇概率小的框刪除。

基于級(jí)聯(lián)卷積神經(jīng)網(wǎng)絡(luò)的人臉檢測(cè)(Cascade CNN)

Cascade CNN 的框架結(jié)構(gòu)是什么?

級(jí)聯(lián)結(jié)構(gòu)中有 6 個(gè) CNN,3 個(gè) CNN 用于人臉非人臉二分類,另外 3 個(gè) CNN 用于人臉區(qū)域的邊框校正。

給定一幅圖像,12-net 密集掃描整幅圖片,拒絕 90% 以上的窗口。剩余的窗口輸入到 12-calibration-net 中調(diào)整大小和位置,以接近真實(shí)目標(biāo)。接著輸入到 NMS 中,消除高度重疊窗口。下面網(wǎng)絡(luò)與上面類似。

Cascade CNN 人臉校驗(yàn)?zāi)K原理是什么?

該網(wǎng)絡(luò)用于窗口校正,使用三個(gè)偏移變量:

Xn:水平平移量,Yn:垂直平移量,Sn:寬高比縮放。

候選框口(x,y,w,h)中,(x,y)表示左上點(diǎn)坐標(biāo),(w,h)表示寬和高。

我們要將窗口的控制坐標(biāo)調(diào)整為:

這項(xiàng)工作中,我們有種模式。偏移向量三個(gè)參數(shù)包括以下值:

同時(shí)對(duì)偏移向量三個(gè)參數(shù)進(jìn)行校正。

訓(xùn)練樣本應(yīng)該如何準(zhǔn)備?

人臉樣本;

非人臉樣本。

級(jí)聯(lián)的好處

最初階段的網(wǎng)絡(luò)可以比較簡單,判別閾值可以設(shè)得寬松一點(diǎn),這樣就可以在保持較高召回率的同時(shí)排除掉大量的非人臉窗口;

最后階段網(wǎng)絡(luò)為了保證足夠的性能,因此一般設(shè)計(jì)的比較復(fù)雜,但由于只需要處理前面剩下的窗口,因此可以保證足夠的效率;

級(jí)聯(lián)的思想可以幫助我們?nèi)ソM合利用性能較差的分類器,同時(shí)又可以獲得一定的效率保證。

基于多任務(wù)卷積神經(jīng)網(wǎng)絡(luò)的人臉檢測(cè)(MTCNN)

MTCNN 模型有三個(gè)子網(wǎng)絡(luò),分別是 P-Net,R-Net,O-Net。

為了檢測(cè)不同大小的人臉,開始需要構(gòu)建圖像金字塔,先經(jīng)過 PNet 模型,輸出人臉類別和邊界框(邊界框的預(yù)測(cè)為了對(duì)特征圖映射到原圖的框平移和縮放得到更準(zhǔn)確的框),將識(shí)別為人臉的框映射到原圖框位置可以獲取 patch,之后每一個(gè) patch 通過 resize 的方式輸入到 RNet,識(shí)別為人臉的框并且預(yù)測(cè)更準(zhǔn)確的人臉框,最后 RNet 識(shí)別為人臉的的每一個(gè) patch 通過 resize 的方式輸入到 ONet,跟 RNet 類似,關(guān)鍵點(diǎn)是為了在訓(xùn)練集有限情況下使模型更魯棒。

還要注意一點(diǎn):構(gòu)建圖像金字塔的的縮放比例要保留,為了將邊界框映射到最開始原圖上。

Facebox

(1)Rapidly Digested Convolutional Layers(RDCL)

在網(wǎng)絡(luò)前期,使用 RDCL 快速的縮小 feature map 的大小。主要設(shè)計(jì)原則如下:

Conv1, Pool1, Conv2 和 Pool2 的 stride 分別是 4, 2, 2 和 2。這樣整個(gè) RDCL 的 stride 就是 32,可以很快把 feature map 的尺寸變小。

卷積(或 pooling)核太大速度就慢,太小覆蓋信息又不足。權(quán)衡之后,將 Conv1, Pool1, Conv2 和 Pool2 的核大小分別設(shè)為 7x7,3x3,5x5,3x3。

使用 CReLU 來保證輸出維度不變的情況下,減少卷積核數(shù)量。

(2)Multiple Scale Convolutional Layers(MSCL)

在網(wǎng)絡(luò)后期,使用 MSCL 更好地檢測(cè)不同尺度的人臉。主要設(shè)計(jì)原則有:

類似于 SSD,在網(wǎng)絡(luò)的不同層進(jìn)行檢測(cè);

采用 Inception 模塊。由于 Inception 包含多個(gè)不同的卷積分支,因此可以進(jìn)一步使得感受野多樣化。

(3)Anchor densification strategy

為了 anchor 密度均衡,可以對(duì)密度不足的 anchor 以中心進(jìn)行偏移加倍,如下圖所示:

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 人臉識(shí)別
    +關(guān)注

    關(guān)注

    77

    文章

    4081

    瀏覽量

    84247
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5561

    瀏覽量

    122793

原文標(biāo)題:深度學(xué)習(xí)在人臉檢測(cè)中的應(yīng)用 | CSDN 博文精選

文章出處:【微信號(hào):rgznai100,微信公眾號(hào):rgznai100】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    基于RV1126開發(fā)板實(shí)現(xiàn)人臉檢測(cè)方案

    RV1126開發(fā)板上實(shí)現(xiàn)人臉檢測(cè)圖像找出人臉,以及每張
    的頭像 發(fā)表于 04-21 17:59 ?449次閱讀
    基于RV1126開發(fā)板實(shí)現(xiàn)<b class='flag-5'>人臉</b><b class='flag-5'>檢測(cè)</b>方案

    基于RV1126開發(fā)板實(shí)現(xiàn)人臉檢測(cè)方案

    RV1126開發(fā)板上實(shí)現(xiàn)人臉檢測(cè)圖像找出人臉,以及每張
    的頭像 發(fā)表于 04-21 10:21 ?99次閱讀
    基于RV1126開發(fā)板實(shí)現(xiàn)<b class='flag-5'>人臉</b><b class='flag-5'>檢測(cè)</b>方案

    使用OpenVINO?模型的OpenCV進(jìn)行人臉檢測(cè)檢測(cè)到多張人臉時(shí),伺服電機(jī)和步入器電機(jī)都發(fā)生移動(dòng)是為什么?

    使用OpenVINO?模型的 OpenCV* 進(jìn)行人臉檢測(cè)。 使用 cv2.矩形 函數(shù),能夠獲取檢測(cè)到的面部的坐標(biāo)。 檢測(cè)到多張人臉時(shí),多
    發(fā)表于 03-07 06:35

    軍事應(yīng)用深度學(xué)習(xí)的挑戰(zhàn)與機(jī)遇

    ,并廣泛介紹了深度學(xué)習(xí)兩個(gè)主要軍事應(yīng)用領(lǐng)域的應(yīng)用:情報(bào)行動(dòng)和自主平臺(tái)。最后,討論了相關(guān)的威脅、機(jī)遇、技術(shù)和實(shí)際困難。主要發(fā)現(xiàn)是,人工智能技術(shù)并非無所不能,需要謹(jǐn)慎應(yīng)用,同時(shí)考慮到其局限性、網(wǎng)絡(luò)安全威脅以及
    的頭像 發(fā)表于 02-14 11:15 ?536次閱讀

    人臉識(shí)別技術(shù)安全監(jiān)控的應(yīng)用

    的潛力和價(jià)值。 人臉識(shí)別技術(shù)原理 人臉識(shí)別技術(shù)主要依賴于計(jì)算機(jī)視覺和機(jī)器學(xué)習(xí)算法。它首先通過攝像頭捕捉人臉圖像,然后利用算法提取圖像的特征
    的頭像 發(fā)表于 02-06 17:25 ?1032次閱讀

    AI自動(dòng)化生產(chǎn):深度學(xué)習(xí)質(zhì)量控制的應(yīng)用

    生產(chǎn)效率、保證產(chǎn)品質(zhì)量方面展現(xiàn)出非凡的能力。阿丘科技「AI干貨補(bǔ)給站」推出《AI自動(dòng)化生產(chǎn):深度學(xué)習(xí)質(zhì)量控制的應(yīng)用》文章,探討深度
    的頭像 發(fā)表于 01-17 16:35 ?692次閱讀
    AI自動(dòng)化生產(chǎn):<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>在</b>質(zhì)量控制<b class='flag-5'>中</b>的應(yīng)用

    GPU深度學(xué)習(xí)的應(yīng)用 GPUs圖形設(shè)計(jì)的作用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)作為其核心部分,已經(jīng)成為推動(dòng)技術(shù)進(jìn)步的重要力量。GPU(圖形處理單元)深度學(xué)習(xí)
    的頭像 發(fā)表于 11-19 10:55 ?1618次閱讀

    如何用OpenCV的相機(jī)捕捉視頻進(jìn)行人臉檢測(cè)--基于米爾NXP i.MX93開發(fā)板

    的是Haar特征人臉檢測(cè),此外OpenCV還集成了深度學(xué)習(xí)方法來實(shí)現(xiàn)人臉
    發(fā)表于 11-15 17:58

    NPU深度學(xué)習(xí)的應(yīng)用

    設(shè)計(jì)的硬件加速器,它在深度學(xué)習(xí)的應(yīng)用日益廣泛。 1. NPU的基本概念 NPU是一種專門針對(duì)深度學(xué)習(xí)算法優(yōu)化的處理器,它與傳統(tǒng)的CPU和G
    的頭像 發(fā)表于 11-14 15:17 ?1903次閱讀

    pcie深度學(xué)習(xí)的應(yīng)用

    深度學(xué)習(xí)模型通常需要大量的數(shù)據(jù)和強(qiáng)大的計(jì)算能力來訓(xùn)練。傳統(tǒng)的CPU計(jì)算資源有限,難以滿足深度學(xué)習(xí)的需求。因此,GPU(圖形處理單元)和TPU(張量處理單元)等專用硬件應(yīng)運(yùn)而生,它們通過
    的頭像 發(fā)表于 11-13 10:39 ?1343次閱讀

    GPU深度學(xué)習(xí)應(yīng)用案例

    GPU深度學(xué)習(xí)的應(yīng)用廣泛且重要,以下是一些GPU深度學(xué)習(xí)應(yīng)用案例: 一、圖像識(shí)別 圖像識(shí)別是
    的頭像 發(fā)表于 10-27 11:13 ?1353次閱讀

    深度偽造人臉檢測(cè)項(xiàng)目

    各位 AI 愛好者們,準(zhǔn)備好通過各種 AI 技術(shù)來應(yīng)對(duì)一個(gè)迫切需要被解決的全球問題了嗎?MathWorks 誠邀您參加 2025 IEEE Signal Processing Cup 挑戰(zhàn)賽:“野外深度偽造人臉檢測(cè)”(DFWil
    的頭像 發(fā)表于 10-17 10:46 ?916次閱讀
    <b class='flag-5'>深度</b>偽造<b class='flag-5'>人臉</b><b class='flag-5'>檢測(cè)</b>項(xiàng)目

    FPGA做深度學(xué)習(xí)能走多遠(yuǎn)?

    的發(fā)展前景較為廣闊,但也面臨一些挑戰(zhàn)。以下是一些關(guān)于 FPGA 深度學(xué)習(xí)應(yīng)用前景的觀點(diǎn),僅供參考: ? 優(yōu)勢(shì)方面: ? 高度定制化的計(jì)算架構(gòu):FPGA 可以根據(jù)
    發(fā)表于 09-27 20:53

    深度識(shí)別人臉識(shí)別有什么重要作用嗎

    深度學(xué)習(xí)人臉識(shí)別技術(shù)是人工智能領(lǐng)域的一個(gè)重要分支,它利用深度學(xué)習(xí)算法來識(shí)別和驗(yàn)證個(gè)人身份。這項(xiàng)技術(shù)
    的頭像 發(fā)表于 09-10 14:55 ?1136次閱讀

    深度識(shí)別人臉識(shí)別在任務(wù)為什么有很強(qiáng)大的建模能力

    深度學(xué)習(xí)人臉識(shí)別技術(shù)是人工智能領(lǐng)域中的一個(gè)重要分支,它利用深度學(xué)習(xí)算法來識(shí)別和驗(yàn)證人臉。這項(xiàng)技術(shù)
    的頭像 發(fā)表于 09-10 14:53 ?836次閱讀