面部識別系統(tǒng)早已在機場、火車站和智能手機上使用,但它們的應(yīng)用范圍正日益擴大到公共和私人空間。本期Nature探討了這項技術(shù)的力量和缺陷。從誤判到隱私、道德與人權(quán),面部識別是否被濫用了呢?
人在家中坐,鍋從天上來。
威廉姆斯正在密歇根州底特律的家中,一通電話打進來:我們是警察局的,已經(jīng)掌握了你盜竊的事實,你可以投案自首。
他不以為然,直到一小時后,警車駛來,在妻子和女兒的面前,威廉姆斯被戴上了手銬,以「盜竊罪」被逮捕。
茫然而憤怒的威廉姆斯被押上了警車。
在審訊室,威廉姆斯才知道了自己「犯案」的過程:偷盜了當?shù)氐母邫n商品店鋪,偷走了5只價值3800美元的手表。
威廉姆斯當然喊冤,一位老老實實的上班族又怎么可能去偷東西呢?
可警察接下來拿出來的「證據(jù)」,卻讓他有口難辯。
這是一張監(jiān)控畫面的截圖:畫面中的男子身穿黑色衣服,頭戴紅色帽子,那是一頂圣路易斯紅雀隊的隊帽。
畫面中的人與威廉姆斯唯一相同的點就是:他們是身材相似的黑人。
「這不是我!你以為所有黑人都長一樣嗎?」威廉姆斯憤怒地質(zhì)問道。
「電腦說是你?!咕煺f。
根據(jù)人臉識別算法,系統(tǒng)給威廉姆斯定了罪。
用「面部識別」抓人,42人被標記,8人真有罪
人臉識別技術(shù)不只在底特律的警察局使用,事實上,這已經(jīng)成為警察辦案的重要工具。
而且,深受警察們信任。
故事中的主人公威廉姆斯被證明了清白,因為他有比面部識別更強有力的證據(jù)——不在場證明。
但疑問也來了,面部識別真的奏效嗎?畢竟,誤判的后果會給被害人帶來不可彌補的傷害。
2016年至2019年間,倫敦的首都警察實驗室測試了實時面部識別技術(shù),他們在一輛警車的控制室里監(jiān)控一些試驗。
「這就像你在電影里看到的一樣,」 達拉格·默里說,他是爾切斯特埃塞克斯大學的一名法律學者。當攝像機掃描購物中心和廣場上的路人時,圖像會傳回貨車內(nèi)的電腦。
系統(tǒng)在人臉周圍畫出矩形,并在直播中識別出人臉。然后提取出關(guān)鍵特征,并將其與觀察名單中的嫌疑人進行比較。如果有匹配,它就會從直播中提取圖像,同時從觀察列表中提取圖像。
圖源:《編碼偏見》
在查看對比結(jié)果后,警方會決定是否沖出去阻止這名「嫌疑人」,或者逮捕他們。
該系統(tǒng)由總部位于東京的科技巨頭 NEC 銷售,該軟件標記出了42個人;警察以「不可信」為由駁回了16個,但還是沖出去阻止了其他人。最后,其中4人在人群中消失了。在剩下的22人中,有8人被證明是的確有罪的。
警察們認為,考慮到系統(tǒng)已經(jīng)掃描了成千上萬張面孔,其準確率還是不錯的。
2018年,計算機科學家 Timnit Gebru、當時還在紐約市微軟研究院的 Joy Buolamwini 發(fā)表了一篇開創(chuàng)性的論文。他們發(fā)現(xiàn),在識別女性和有色人種的性別方面,領(lǐng)先的面部識別軟件包的表現(xiàn)要比識別男性和白人的表現(xiàn)差得多。
這引起了人們對面部識別的巨大爭議。
今年6月,全球最大的科學計算機協(xié)會——位于紐約市的計算機協(xié)會敦促私人和政府暫停使用人臉識別技術(shù),理由是「基于民族、種族、性別和其他人類特征的明顯偏見」。
深度學習引入識別系統(tǒng),更準確但仍有偏見
十年前,「深度學習」被引入這個領(lǐng)域以來,從那時起,人臉識別的準確性已經(jīng)有了很大的提高。
但是,這是否意味著它足夠好,可以用于低質(zhì)量的「野外」圖像,是一個極具爭議的問題。
這大多數(shù)都涉及一個多階段的過程,使用深度學習來訓練大量數(shù)據(jù)集上的大規(guī)模神經(jīng)網(wǎng)絡(luò)來識別模式。
人臉識別系統(tǒng)通過分析人臉的幾何形狀來生成「faceprint」,這是一種可以用來識別或確認一個人的生物特征識別系統(tǒng)。另一種用法是面部分析,通過性別、年齡、種族、情緒等標簽,給一張面孔下定義。
典型系統(tǒng)中的第一階段,定位圖像中的一個或多個人臉。
監(jiān)控攝像頭拍攝的人臉,可能會在不同的光照條件下從不同的角度觀看,這使得他們比標準護照照片更難識別。算法將在數(shù)百萬張照片上進行訓練,以定位人臉上的「標志」 ,比如眼睛、鼻子和嘴巴,它將信息提煉成一個簡潔的文件,大小從小于100字節(jié)到幾千字節(jié)不等。
接下來的任務(wù)是將面部「正?;?,人為地將其旋轉(zhuǎn)成一個正面、光線充足的圖像。這樣就產(chǎn)生了一組面部特征,可以與從現(xiàn)有的面部數(shù)據(jù)庫中提取的特征進行比較。這通常包括在受控條件下拍攝的照片,比如警察的啞照。由于特征表示是緊湊的、結(jié)構(gòu)化的文件,計算機可以快速掃描數(shù)以百萬計的文件以找到最接近的匹配。
將人臉與大型數(shù)據(jù)庫(稱為一對多識別)進行匹配是人臉識別系統(tǒng)的兩種主要類型之一。另一個是一對一的驗證,這是一個相對簡單的任務(wù),確保一個人符合自己的照片。它可以應(yīng)用于任何事情,從解鎖智能手機到國家邊境的護照檢查。
在進行了一些對比試驗后,得出結(jié)論: 大多數(shù)數(shù)據(jù)包對白人男性面孔的準確度往往高于對有色人種或女性面孔。特別是,在數(shù)據(jù)庫中被歸類為非洲裔美國人或亞洲人的面孔,被錯誤識別的可能性是被歸類為白人的面孔的10-100倍。女性也比男性更容易出現(xiàn)假陽性。
另外,戶外、光線不好或者圖像顆粒狀可能會影響匹配率。
「電腦說是你」,真假面孔誰來定?
在一對一的驗證方面,例如確認護照或智能手機的合法擁有者,人工智能已經(jīng)變得極其準確,甚至與眼睛最敏銳的人類一樣嫻熟。
在這個領(lǐng)域,前沿的研究目前集中在偵測惡意攻擊上。例如,用于解鎖手機的面部識別系統(tǒng),很容易被照片欺騙。
「3D 面部識別效果更好?!笿ain 說,「但現(xiàn)在最大的挑戰(zhàn)是高質(zhì)量的面具。」在一個項目中,Jain 和他的合作者正在通過運用皮膚紋理來檢測出「假面孔」。
但是,正如默里所發(fā)現(xiàn)的那樣,一對多的驗證卻并沒有想象中那么簡單。盡管有了足夠多的觀察名單,但被標記為假陽性的數(shù)量很容易超過真實的結(jié)果。
今年一月在英國加的夫舉行的一場足球比賽中,抗議面部識別的橫幅(在2019冠狀病毒疾病流感大流行之前)。
當警察通過面部識別監(jiān)測犯罪行為,必須迅速做出阻止某人的決定時,這個問題就顯現(xiàn)出來。而在緩慢的調(diào)查中,面部識別同樣也會發(fā)生錯誤。
文章開頭所說的威廉姆斯被警察的面部識別辦案系統(tǒng)誤判的事情,就是一個典型的例子。
美國公民自由聯(lián)盟的律師菲爾 · 梅耶爾認為,這項技術(shù)應(yīng)該被禁止?!高@種方法行不通,即使它行得通,對于政府來說,如果沒有令人信服的結(jié)果,用這種方法來監(jiān)視自己的公民仍然是非常危險的。」
在美國公民自由協(xié)會的投訴發(fā)生后不久,底特律警察局長詹姆斯 · 克雷格承認:如果該軟件單獨使用,「96% 的情況下」會錯誤識別案件。
出于對種族偏見和歧視的擔憂,在過去的18個月里,至少有11個美國城市禁止公共部門進行面部識別。但底特律警方仍在使用這項技術(shù)。
2019年底,警方采取了禁止直播監(jiān)控的政策,并且規(guī)定只對靜態(tài)圖像和用于刑事調(diào)查的一部分動態(tài)圖像使用該軟件。
「而威廉姆斯是在該政策實施前被捕的」克雷格在6月份時說。
面部識別分析的其他方面研究,比如試圖根據(jù)一個人的面部表情推斷出他的性格,則更具爭議性。
研究人員已經(jīng)證明,這種方法并不奏效ーー即使是最好的軟件也只能根據(jù)人猜測的圖像進行訓練。
但是世界各地的公司仍然在購買未經(jīng)證實的技術(shù),這些技術(shù)被一些企業(yè)用在面試中,根據(jù)求職者談話的視頻評估求職者的個性。
阿利坎特的計算機科學家紐里亞 · 奧利弗認為,政府應(yīng)該規(guī)范面部識別和其他潛在技術(shù)的使用,以防止濫用。
奧利弗是一家名為歐洲學習與智能系統(tǒng)實驗室(European Laboratory for Learning and Intelligent Systems)的區(qū)域網(wǎng)絡(luò)的聯(lián)合創(chuàng)始人兼副總裁。他表示:
「系統(tǒng)在未經(jīng)適當評估其性能,沒有經(jīng)過驗證和再現(xiàn)性的情況下就被廣泛使用,后果是難以預(yù)測的?!?/p>
「面部識別」濫用帶來對隱私、道德和人權(quán)的擔憂
一些法規(guī)提案要求當局建立準確性標準,并要求人類審查任何算法的結(jié)論。
但是,渥太華互聯(lián)網(wǎng)基金會 Mozilla 的技術(shù)研究員、專門審計面部識別系統(tǒng)的德博拉?拉吉(Deborah Raji)表示:基于 NIST 基準的標準本身太低,不足以證明部署該技術(shù)是合理的。
Deborah Raji 專長于審計面部識別系統(tǒng)
今年,Raji,Buolamwini 和 Gebru等人發(fā)表了另一篇有關(guān)商業(yè)系統(tǒng)性能的論文,他們指出,盡管一些公司在對淺膚色和深膚色面孔進行性別分類方面有所改進,但他們?nèi)匀粺o法準確猜測一個深膚色面孔的年齡。
「目前的評估過程非常不成熟,每當我們建立了一個新的評估維度,我們就會發(fā)現(xiàn),這個行業(yè)的表現(xiàn)并不像它認為的那樣。」Raji 表示。
「重要的是,公司應(yīng)該更多地披露它們?nèi)绾螠y試和訓練面部識別系統(tǒng),并與使用該技術(shù)的社區(qū)進行磋商?!?/p>
紐約大學人工智能研究所的法律學者 Amba Kak 認為,技術(shù)標準不能阻止面部識別系統(tǒng)被用于歧視性用途。
「這些系統(tǒng)是否會成為警務(wù)中普遍存在的歧視做法的另一個工具? 」卡克補充說,「人類操作員往往最終只是確認系統(tǒng)的偏差,而不是糾正它?!?/p>
諸如蘇格蘭場的外部審查等研究表明,人類往往高估這項技術(shù)的可信度,即使他們看到了電腦的虛假匹配旁邊的真實面孔。
Kak和其他人支持暫停使用任何面部識別技術(shù),這不僅是因為該技術(shù)還不夠好,還因為需要就如何防止其被濫用進行更廣泛的討論。
默里表示,「這項技術(shù)將得到改善,但是人們?nèi)匀粦岩蓪o辜的人們進行永久搜索的合法性,以及把人們列入觀察名單的標準?!?/p>
對隱私、道德和人權(quán)的擔憂正在增長。
印度有世界上最大的生物識別計劃,其中涉及使用面部識別來建立名為Aadhaar的巨型國家身份證系統(tǒng)。
生活在印度的任何人都可以去Aadhaar中心拍照,系統(tǒng)會將該照片與13億人的現(xiàn)有記錄進行比較,以確保申請人尚未使用其他名稱進行注冊。
「這是一個令人難以置信的體系,」曾擔任該體系顧問的賈恩表示,「它的美妙之處在于,它確保了一個人只有一個身份證。」
但批評人士稱,這項法案將非身份證持有者變成了二等公民。還有人稱,這項法案被用來在選舉前將合法公民從選民名單中清除。
紐約大學(New York University)計算機科學家、現(xiàn)代人工智能研究所(AI Now Institute)聯(lián)席主任凱特?克勞福德(Kate Crawford)表示:
「在歷史的這一點上,我們需要更加懷疑那些聲稱我們需要更加精確的公共監(jiān)控形式的說法?!?/p>
2019年8月,克勞福德呼吁政府暫停使用面部識別算法。
但與此同時,在宣布其試點項目成功后,蘇格蘭場在一月份宣布,它將開始在倫敦各地部署實時面部識別系統(tǒng)。
責任編輯:PSY
-
AI
+關(guān)注
關(guān)注
87文章
33628瀏覽量
274365 -
人臉識別
+關(guān)注
關(guān)注
76文章
4055瀏覽量
83427 -
識別系統(tǒng)
+關(guān)注
關(guān)注
1文章
145瀏覽量
19010 -
深度學習
+關(guān)注
關(guān)注
73文章
5548瀏覽量
122337
發(fā)布評論請先 登錄
景區(qū)AI行為識別系統(tǒng)作用

深度學習賦能:正面吊車載箱號識別系統(tǒng)的核心技術(shù)
人臉識別技術(shù)的優(yōu)勢與劣勢
人臉識別技術(shù)的應(yīng)用場景
新唐科技基于NuMaker-M55M1平臺的人臉識別系統(tǒng)
幾款性價比很不錯的門禁人臉識別系統(tǒng)及其常見應(yīng)用

隧道門禁人臉識別系統(tǒng)是專為隧道安全管理設(shè)計的先進技術(shù)系統(tǒng)

評論