一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

從圖像數(shù)據(jù)角度為人臉識(shí)別準(zhǔn)確率的提高提出的建議

zhKF_jqr_AI ? 來(lái)源:未知 ? 作者:李倩 ? 2018-08-05 09:08 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群


編者按:作為目前人工智能界著名的獨(dú)角獸,商湯科技在圖像處理和人臉識(shí)別技術(shù)領(lǐng)域處在世界前沿的位置。近日,該公司在arXiv上發(fā)表論文The Devil of Face Recognition is in the Noise,從圖像數(shù)據(jù)角度為人臉識(shí)別準(zhǔn)確率的提高提出了建議。

在進(jìn)行人臉識(shí)別的任務(wù)時(shí),數(shù)據(jù)集是其中的關(guān)鍵。從早期的FERET數(shù)據(jù)集到最近的LFW、MegaFace和MS-Celeb-1M,數(shù)據(jù)集在新技術(shù)的發(fā)展上有著不可或缺的作用。這些數(shù)據(jù)集不僅僅提供了更加豐富的資源,而且數(shù)據(jù)規(guī)模也有了非常大的提高例如,MS-Celeb-1M包含大約1000萬(wàn)張圖片,其中有10萬(wàn)個(gè)人物,遠(yuǎn)遠(yuǎn)超過(guò)只有14126張圖像、1199個(gè)人的FERET數(shù)據(jù)集。大型數(shù)據(jù)集,再加上深度學(xué)習(xí)技術(shù),讓人臉識(shí)別在這幾年取得了巨大的成功。

然而,大型數(shù)據(jù)集不可避免地會(huì)受到標(biāo)簽噪聲的影響。這一問(wèn)題很普遍,因?yàn)榻?jīng)過(guò)良好標(biāo)注的大型數(shù)據(jù)集得來(lái)的成本非常高昂,所以這也促使科學(xué)家們尋找便宜但并不完美的替代方法。一種常見(jiàn)的方法是根據(jù)人名在網(wǎng)絡(luò)上查找他們的照片,再用自動(dòng)或半自動(dòng)方法對(duì)標(biāo)簽進(jìn)行清理。另外還有些方法會(huì)在社交網(wǎng)站上手機(jī)照片。上述方法都是擴(kuò)大訓(xùn)練樣本的簡(jiǎn)便方法,但同時(shí)也會(huì)帶來(lái)標(biāo)簽噪聲,給訓(xùn)練和模型帶來(lái)負(fù)面效果。圖1就是含有標(biāo)簽噪聲的一些樣本:

圖1

可以看到,MegaFace和MS-Celeb-1M都含有相當(dāng)多的錯(cuò)誤標(biāo)簽,有些噪聲標(biāo)簽可以輕易消除,但是大部分想要消除還是很困難的。在MegaFace中還有很多重復(fù)的圖像(最后一行)。

所以,本文的首要目標(biāo)是探究標(biāo)簽噪聲的來(lái)源,以及在深度卷積神經(jīng)網(wǎng)絡(luò)中,這些噪聲會(huì)給人臉識(shí)別造成何種后果。我們主要考慮的問(wèn)題有:想要達(dá)到清理數(shù)據(jù)的目的,需要多少噪聲樣本?噪聲和最終的模型性能之間有何種關(guān)系?標(biāo)注人臉的最佳策略是什么?對(duì)這些問(wèn)題的理解將有助于我們?cè)O(shè)計(jì)更好的數(shù)據(jù)收集和清理方法,同時(shí)防止在訓(xùn)練過(guò)程中造成危險(xiǎn),以形成能應(yīng)對(duì)現(xiàn)實(shí)問(wèn)題的強(qiáng)大算法。

其次,本文的第二目標(biāo)是為社區(qū)建立一個(gè)干凈的人臉識(shí)別數(shù)據(jù)集。該數(shù)據(jù)集能幫助研究人員訓(xùn)練更好的模型,并且進(jìn)一步了解噪聲和人臉識(shí)別性能之間的關(guān)系。

現(xiàn)存數(shù)據(jù)有多少噪音?

這一部分中我們會(huì)介紹幾種流行的數(shù)據(jù)集,之后會(huì)分析他們各自的信噪比。目前用于人臉識(shí)別研究的數(shù)據(jù)集大致如下表所示:

了解各數(shù)據(jù)集所含數(shù)據(jù)后,我們想大概估計(jì)每個(gè)數(shù)據(jù)集中的噪聲分布。但由于數(shù)據(jù)集體積過(guò)大,想計(jì)算確切的數(shù)字不那么容易,所以我們隨機(jī)選擇了數(shù)據(jù)集的子集,然后手動(dòng)將它們分為三個(gè)類別:“正確識(shí)別”、“待定”和“錯(cuò)誤識(shí)別”。

從各數(shù)據(jù)集中抽取一部分?jǐn)?shù)據(jù)后,大概情況如圖2a所示:

圖2a

可以看出,數(shù)據(jù)規(guī)模越大,信噪比越大。

之后,我們又對(duì)兩個(gè)最大的數(shù)據(jù)集——MS-Celeb-1M和MegaFace進(jìn)行噪聲分布分析。我們首先根據(jù)圖片數(shù)量對(duì)數(shù)據(jù)集中人物進(jìn)行分類,最終生成了6個(gè)類別,通過(guò)下圖可以看出每個(gè)類別的信噪比。

可以看出,大多數(shù)目標(biāo)只有很少的圖像與之對(duì)應(yīng),這一情況在MegaFace上更明顯,因?yàn)樗怯米詣?dòng)方法收集的數(shù)據(jù)。與MS-Celeb-1M相比,MegaFace的噪聲似乎更少,但是我們發(fā)現(xiàn)在MegaFace干凈的數(shù)據(jù)集中,有很多重復(fù)圖像。

打造自己的清潔數(shù)據(jù)集

通過(guò)分析我們得出,一個(gè)含有超過(guò)一百萬(wàn)張圖片的數(shù)據(jù)集,信噪比通常高達(dá)30%。為了創(chuàng)建一個(gè)干凈的數(shù)據(jù)集,我們不僅在收集人臉數(shù)據(jù)時(shí)找尋更干凈、更多樣的來(lái)源,更重要的是找到一種高效的數(shù)據(jù)標(biāo)記方法。

從IMDb中搜集人臉圖像

被大家廣泛使用的ImageNet是直接從谷歌圖片中搜索來(lái)圖像的,其他數(shù)據(jù)集也大多如此,但這樣做的壞處是存在數(shù)據(jù)偏見(jiàn)。從圖3中我們可以看出,從搜索引擎中搜到的圖片背景都很簡(jiǎn)單,光線充足,大都是圖片的前景。而在實(shí)際的視頻中,人臉圖像并沒(méi)有這么清晰。另外,從搜索引擎中得到的圖片通常查全率很低,經(jīng)過(guò)研究我們發(fā)現(xiàn),在200張照片中,平均查全率只有40%。

圖3

在這項(xiàng)研究中,我們從IMDb網(wǎng)站搜集圖像,因?yàn)樵摼W(wǎng)站結(jié)構(gòu)化程度更高,每個(gè)人物的照片種類也比較多,包括官方照片、生活照、電影劇照等等。另外,這里的查全率更高達(dá)90%。最終我們收集了170萬(wàn)張名人的照片,其中有5900位明星。

標(biāo)記處理

我們對(duì)數(shù)據(jù)進(jìn)行了清洗,但是清洗的方法有以下三種:

第一種,志愿者們?cè)趫D片中圈出目標(biāo)人物;第二步,在三個(gè)候選圖像中,志愿者們要選擇對(duì)應(yīng)目標(biāo)圖像的那張圖片;第三步,直接進(jìn)行判斷,Yes or No。

最終,三種方法的ROC曲線如圖:

可以看到第一種方法的F1分?jǐn)?shù)最高,誤報(bào)率不超過(guò)10%。第三種方法的效果最差。另外,我們還發(fā)現(xiàn)一個(gè)有趣的現(xiàn)象,即當(dāng)志愿者標(biāo)注的時(shí)間越長(zhǎng),標(biāo)注的準(zhǔn)確性越高。

實(shí)驗(yàn)過(guò)程

實(shí)驗(yàn)分為四個(gè)部分。首先,我們?cè)谔岢龅臄?shù)據(jù)集上添加模擬噪聲,進(jìn)行控制變量研究。這有助于我們觀察在由噪音的情況下性能的下降。

之后,我們會(huì)在兩個(gè)現(xiàn)有數(shù)據(jù)集上進(jìn)一步實(shí)驗(yàn),探索噪音的影響。

第三,將我們的數(shù)據(jù)集和其他傳統(tǒng)數(shù)據(jù)集進(jìn)行對(duì)比,驗(yàn)證其有效性。

最后,將在我們數(shù)據(jù)集上訓(xùn)練的模型和其他模型進(jìn)行對(duì)比。最終結(jié)果如下表:

我們的模型IMDb-Face得到了目前的最高分?jǐn)?shù)。

結(jié)語(yǔ)

與目前流行的專注于復(fù)雜損失和CNN結(jié)構(gòu)的研究不同,我們從數(shù)據(jù)的角度來(lái)研究人臉識(shí)別問(wèn)題,尤其是對(duì)標(biāo)記噪聲的來(lái)源有了一定認(rèn)識(shí)。最終我們新建的IMDb-Face數(shù)據(jù)集也成為了打造大型干凈數(shù)據(jù)集的重要基礎(chǔ)。


聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1806

    文章

    49011

    瀏覽量

    249374
  • 人臉識(shí)別
    +關(guān)注

    關(guān)注

    77

    文章

    4081

    瀏覽量

    84255
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5561

    瀏覽量

    122793

原文標(biāo)題:商湯科技:圖片噪聲才是人臉識(shí)別背后的惡魔

文章出處:【微信號(hào):jqr_AI,微信公眾號(hào):論智】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    基于RBM實(shí)現(xiàn)手寫(xiě)數(shù)字識(shí)別準(zhǔn)確率

    DL之RBM:基于RBM實(shí)現(xiàn)手寫(xiě)數(shù)字識(shí)別準(zhǔn)確率
    發(fā)表于 12-28 10:19

    請(qǐng)問(wèn)誰(shuí)做過(guò)蟻群算法選擇圖像特征,使識(shí)別準(zhǔn)確率最高?

    請(qǐng)問(wèn)誰(shuí)做過(guò)蟻群算法選擇圖像特征,使識(shí)別準(zhǔn)確率最高?有學(xué)習(xí)資料或者matlab代碼可以讓我學(xué)習(xí)一下嗎
    發(fā)表于 02-17 17:20

    如何提高Stm32F746G準(zhǔn)確率

    你好帶時(shí)鐘的教程 3。如何提高準(zhǔn)確率?最好的祝福安杰伊
    發(fā)表于 01-12 07:26

    國(guó)產(chǎn)工業(yè)級(jí)RK3568核心板-AI人臉識(shí)別產(chǎn)品方案

    ,自動(dòng)對(duì)焦等功能的攝像頭模組,以保證圖像質(zhì)量和拍攝效果。在圖像采集的過(guò)程中,可以使用RK3568內(nèi)置的ISP圖像處理單元對(duì)圖像進(jìn)行優(yōu)化,提高人臉
    發(fā)表于 05-06 14:30

    最新人臉識(shí)別算法不看臉也能準(zhǔn)確工作

    德國(guó)研究者發(fā)明的人臉識(shí)別算法無(wú)需看到照片中的面部也能實(shí)現(xiàn)較高的身份識(shí)別準(zhǔn)確率。
    發(fā)表于 08-10 10:36 ?1372次閱讀

    人工智能首次超過(guò)人眼準(zhǔn)確率 人臉識(shí)別準(zhǔn)確度已經(jīng)提升4個(gè)數(shù)量級(jí)

    隨著算法的提升,應(yīng)用邊界不斷擴(kuò)大,人工智能(AI)人臉識(shí)別技術(shù)的準(zhǔn)確率首次超過(guò)人眼準(zhǔn)確率,人工智能如何通過(guò)云和端改變生活和未來(lái)。
    發(fā)表于 02-06 12:42 ?1.4w次閱讀

    人臉識(shí)別技術(shù)可以達(dá)到99.84%的準(zhǔn)確率,實(shí)現(xiàn)了飛速的發(fā)展

    經(jīng)過(guò)40多年的發(fā)展,人臉識(shí)別技術(shù)取得了長(zhǎng)足的進(jìn)步,目前最優(yōu)的系統(tǒng)識(shí)別率在樣本數(shù)字比較大的情況下可以達(dá)到99.84%的準(zhǔn)確率,甚至超過(guò)了人類的識(shí)別
    發(fā)表于 09-07 15:13 ?1w次閱讀

    人臉識(shí)別準(zhǔn)確率大幅度提升,離不開(kāi)科技企業(yè)的努力

    根據(jù) NIST 2018年發(fā)布的成績(jī),目前全球最好人臉識(shí)別技術(shù)水平為千萬(wàn)分之一誤報(bào)下的識(shí)別準(zhǔn)確率接近 99%(yitu-001),這意味著受限場(chǎng)景下,在千萬(wàn)分位誤報(bào)上,人類已經(jīng)將機(jī)器的
    發(fā)表于 09-30 09:17 ?2064次閱讀

    “抗人臉識(shí)別”的 AI 讓準(zhǔn)確率100%狂降只剩0.5%

    摘要: 人臉識(shí)別的各項(xiàng)應(yīng)用推陳出新,隱私疑慮卻未曾消除?,F(xiàn)在有學(xué)者研發(fā)“抗人臉識(shí)別”的 AI,可以讓人臉
    發(fā)表于 03-04 13:31 ?1513次閱讀

    報(bào)告指出口罩正在挫敗常規(guī)的人臉識(shí)別算法,提高錯(cuò)誤

    7月,NIST發(fā)布了一份報(bào)告,指出口罩正在挫敗常規(guī)的人臉識(shí)別算法,錯(cuò)誤5%到50%不等。NIST被廣泛認(rèn)為是人臉
    發(fā)表于 08-28 14:48 ?689次閱讀

    提高心電信號(hào)分類識(shí)別準(zhǔn)確率的模糊決策樹(shù)

    提高心電信號(hào)分類識(shí)別準(zhǔn)確率,提出一種基于時(shí)頻特征融合與動(dòng)態(tài)模糊決策樹(shù)的心電信號(hào)分類識(shí)別方法。對(duì)心電信號(hào)依次進(jìn)行周期分割、小波包分解與重構(gòu)
    發(fā)表于 05-28 10:34 ?14次下載

    人臉識(shí)別技術(shù)的挑戰(zhàn)和未來(lái)發(fā)展

    人臉識(shí)別技術(shù)在實(shí)現(xiàn)過(guò)程中面臨著一些挑戰(zhàn)和問(wèn)題。 首先,人臉識(shí)別技術(shù)需要具備高準(zhǔn)確率識(shí)別速度,以
    的頭像 發(fā)表于 06-28 18:07 ?1374次閱讀

    智慧礦山:AI算法為何能提高未戴安全帶識(shí)別準(zhǔn)確率

    未穿戴安全帶識(shí)別AI算法是智慧礦山的重要應(yīng)用之一,可以提高礦山工作人員的安全意識(shí)和降低事故發(fā)生的概率。為了提高識(shí)別準(zhǔn)確率,研究人員可以優(yōu)化
    的頭像 發(fā)表于 10-22 22:01 ?712次閱讀

    ai人工智能回答準(zhǔn)確率高嗎

    ,AI可能表現(xiàn)出較高的準(zhǔn)確率。例如,在圖像識(shí)別、語(yǔ)音識(shí)別等領(lǐng)域,經(jīng)過(guò)大量訓(xùn)練的AI系統(tǒng)通常能夠取得令人滿意的準(zhǔn)確率。 然而,在其他領(lǐng)域或場(chǎng)景下,AI的
    的頭像 發(fā)表于 10-17 16:30 ?7158次閱讀

    如何提升人臉門(mén)禁一體機(jī)的識(shí)別準(zhǔn)確率

    準(zhǔn)確率,可以以下幾個(gè)方面進(jìn)行改進(jìn)。一、優(yōu)化算法與模型人臉識(shí)別的核心在于算法的優(yōu)化和模型的調(diào)整,目前深度學(xué)習(xí)技術(shù)在圖像識(shí)別中的應(yīng)用取得了顯著
    的頭像 發(fā)表于 12-10 15:05 ?996次閱讀
    如何提升<b class='flag-5'>人臉</b>門(mén)禁一體機(jī)的<b class='flag-5'>識(shí)別</b><b class='flag-5'>準(zhǔn)確率</b>?