一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

AI把狗認成貓 只因它在捕捉人類看不到的特征

電子工程師 ? 來源:fqj ? 2019-05-16 17:06 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

近日,一個來自麻省理工學院(MIT)的團隊公開了他們的研究成果。該文章指出,對抗樣本(Adversarial Sample)導致圖像識別(Image Classification)失效的現(xiàn)象,或許只是人類的一種“自以為是”。識別模型捕捉的,其實是那些不能被人眼察覺的“非穩(wěn)健特征”(Non-robust Feature)。如果只是基于這些像素層面的特征,模型對對抗樣本的識別就不能被認為是失敗的。

幾乎所有圖像識別算法都存在一個弱點——對抗樣本問題。對抗樣本是指在一張自然圖片中,對少部分像素點的數(shù)值進行修改,即使修改不足以被人眼察覺,但識別算法卻做出完全錯誤的判斷,比如把小狗識別成鴕鳥。這可能成為致命的安全漏洞,比如讓自動駕駛的汽車偏離車道,或者讓監(jiān)控探頭無法發(fā)現(xiàn)罪犯的身影?!督o T 恤印上一個圖案,就能在監(jiān)控下實現(xiàn)“隱身”?》

圖|左為自然圖片,識別為“小狗”。右為刻意修改后的對抗樣本,識別為“鴕鳥”。(來源:Christian Szegedy/Google Inc.)

目前許多研究機構(gòu)(如谷歌公司、麻省理工學院和騰訊科恩實驗室)都在嘗試解決對抗樣本問題。其中主要的難題存在于三個方面,首先是視覺世界的復雜性,比如一張圖片中通常存在上百萬個像素點。其次,我們并沒有徹底地理解卷積神經(jīng)網(wǎng)絡模型(CNN)實現(xiàn)圖像識別的機制。此外,科學家不知道識別模型失效的原因是訓練方式的問題還是訓練數(shù)據(jù)量不夠大?

麻省理工學院的科研團隊發(fā)現(xiàn),目前常用的識別模型其實是通過關注圖片中,人眼無法察覺的細節(jié)來實現(xiàn)圖像識別。就如同人類會對比耳朵的不同,而將狗和貓的照片區(qū)分出來一樣。但是AI模型卻是在像素的層面進行區(qū)分。

論文的第一作者,麻省理工學院在讀博士生 Andrew Ilyas 說道:“對于那些像素層面的特征,它們最大的特點就是不會被人眼察覺。”

想要弄明白 AI 到底是依據(jù)什么特征來識別圖像并不容易。Andrew Ilyas等人首先定義了一整套理論框架。他們把圖片中的特征分成兩類:“穩(wěn)健特征”(Robust Features),指即使做了像素層面的修改也不會影響識別結(jié)果的特征(如耳朵、胡須),和 “非穩(wěn)健特征”(Non-robust Features),即會被像素修改而影響的特征(通常無法被人類識別)。

其次,他們又定義了兩種訓練模型的方法,“標準訓練”(Standard Training)和“穩(wěn)健訓練”(Robust Training)。穩(wěn)健訓練的損失方程額外考慮了對抗樣本的存在,使得模型在訓練中可以強化對穩(wěn)健特征識別。

AI把狗認成貓 只因它在捕捉人類看不到的特征

圖|標準訓練和穩(wěn)健訓練的損失方程。穩(wěn)健訓練中劃線的部分表示修改原始數(shù)據(jù),使之成為對抗樣本。(來源:Andrew Ilyas/MIT)

他們假設穩(wěn)健特征和非穩(wěn)健特征同時存在。并且使用和生成對抗網(wǎng)絡(GAN)相似的方法,將原始的訓練數(shù)據(jù)集(D)中的圖片進行重新加工,生成了兩個新的數(shù)據(jù)集:將非穩(wěn)健特征洗刷掉、只含穩(wěn)健特征的 D_R,和在人類看來錯誤標注、但非穩(wěn)健特征符合其標注的 D_NR。

AI把狗認成貓 只因它在捕捉人類看不到的特征

圖|左:原始訓練數(shù)據(jù) D,只含穩(wěn)健特征的 D_R,和失去特征一致性的 D_NR。右:三種數(shù)據(jù)集在不同訓練方式下的準確率。(來源:Andrew Ilyas/MIT)

研究人員指出,由于只有穩(wěn)健特征,D_R 所含的信息量少于原始數(shù)據(jù) D。實驗發(fā)現(xiàn),再以 D_R 為基礎,以標準訓練的方法得到的識別模型,同樣可以抵御對抗樣本。以此證明像素層面的修改(人眼無法分辨),并不影響圖片中的穩(wěn)健特征。

另一方面,研究人員對訓練數(shù)據(jù)(D)進行像素層面的修改,并且不斷優(yōu)化,讓標準模型盡可能地把圖片識別成另一個類型。比如,穩(wěn)健特征(人眼觀察)是“狗”,而非穩(wěn)健特征和標注(模型認為)則是“貓”。

研究人員將經(jīng)過修改的圖片集計作 D_NR,并找來一張訓練數(shù)據(jù)之外的自然中“貓”圖片進行測試。識別器成功把這張外來的圖片也識別成了“貓”。說明這張自然的“貓”,和 D_NR 中的“貓”具有可以被模型識別的相同屬性,而這個屬性就是我們看不到的“非穩(wěn)健特征”。

圖|圖中右側(cè)“狗”的圖像,和下方“貓”的圖像,都被識別成了“貓”,他們有相同的非穩(wěn)健特征。(來源:Andrew Ilyas/MIT)

通過實驗,Andrew Ilyas 和他的團隊確定:穩(wěn)健特征和非穩(wěn)健特征都存在于圖片之中,并且一般的識別模型只會通過非穩(wěn)健特征進行圖像識別,而非穩(wěn)健特征不能被人眼察覺。所以,對抗樣本本身并不是圖像識別的漏洞,只是另外一種無法被我們看到的特征而已。

“這并不是模型本身有什么問題,只是那些真正決定識別結(jié)果的東西并不能被看到?!痹撜撐牡诙髡?、麻省理工學院在讀博士生 Shibane Santurkar 補充道:“如果我們只知道算法的決策取決于一些我們看不見的東西,那我們又怎么能理所當然地以為它做的決定就是正確的?”如果一個人需要在法庭上證明監(jiān)控視頻中的人不是自己就會非常麻煩,因為我們不知道監(jiān)控識別的錯誤結(jié)果是怎么得來的 。

科學家始終需要面對一個抉擇,模型究竟是應該做出“準確”的決定,還是應該做出“人類”的決定?如果模型只是識別穩(wěn)健特征,它或許就不會那么準確。然而如果決策機制偏向不能被看到的非穩(wěn)健特征,那么對抗樣本就會成為潛在的漏洞。如今,圖像識別技術(shù)已廣泛應用在日常生活中,我們需要在這兩個選擇之間找到某種平衡。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 圖像識別
    +關注

    關注

    9

    文章

    527

    瀏覽量

    39111
  • AI
    AI
    +關注

    關注

    88

    文章

    35143

    瀏覽量

    279818

原文標題:AI把“狗”認成“貓”,只因它在捕捉人類看不到的特征

文章出處:【微信號:deeptechchina,微信公眾號:deeptechchina】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    使用CCU4產(chǎn)生3個PWM信號,在引腳 P0.8 上看不到任何 PWM 輸出,為什么?

    P0.8 上看不到任何 PWM 輸出。 我還嘗試使用 P0.8 作為XMC_GPIO_MODE_OUTPUT_PUSH_PULL 的數(shù)字輸出,但這也不起作用。 使用 P0.8 作為數(shù)字輸出有什么限制嗎?這和RTC_XTAL1有關系嗎? 聚苯乙烯我不使用 RTC,也不在我的代碼中執(zhí)行任何 RTC 配置。
    發(fā)表于 07-14 07:01

    監(jiān)控系統(tǒng)正常鏈接網(wǎng)絡,但是看不到畫面了,怎么解決?

    監(jiān)控系統(tǒng)正常鏈接網(wǎng)絡 但是看不到畫面了 怎么辦
    發(fā)表于 07-10 06:51

    任正非說 AI已經(jīng)確定是第四次工業(yè)革命 那么如何從容地加入進來呢?

    。 嘗試圖像識別或個人語音助手等項目。利用現(xiàn)有的AI框架,如使用TensorFlow來構(gòu)建一個簡單的圖像分類器,對等少數(shù)幾種類別的圖像進行分類。或者利用訊飛等平臺的語音識別API,結(jié)合自己的編程
    發(fā)表于 07-08 17:44

    艾為產(chǎn)品賦能湯姆AI童伴機器人

    AI浪潮的掀起帶動了一場關于童年陪伴的智能進化。AI童伴——會說話的湯姆,正引領著童年陪伴的全新變革。湯姆能夠與孩子進行自然流暢的智能對話,對各類語音指令迅速做出精準反應。得益于
    的頭像 發(fā)表于 04-24 13:40 ?360次閱讀
    艾為產(chǎn)品賦能湯姆<b class='flag-5'>貓</b><b class='flag-5'>AI</b>童伴機器人

    《DNESP32S3使用指南-IDF版_V1.6》第六十章 臉檢測實驗

    第六十章 臉檢測實驗 臉檢測與人臉檢測一樣,也是基于數(shù)字圖像中查找和識別臉。本章,我們使用樂鑫AI庫來實現(xiàn)臉檢測功能。本章分為如下幾
    發(fā)表于 04-01 09:28

    使用ADS1198-FE下載了軟件按照說明進行了調(diào)試,出現(xiàn)了兩個問題求解決

    使用ADS1198-FE,下載了軟件按照說明進行了調(diào)試,但出現(xiàn)了兩個問題: 1、工頻干擾特別大,淹沒了有用信號。后來我直接將通道2與信號發(fā)生器相接看波形,依舊有非常大的干擾,幾乎看不到波形。 2
    發(fā)表于 02-07 08:24

    ADS1278EVM想進行數(shù)模轉(zhuǎn)換,但是給通道一送入正弦波完全看不到轉(zhuǎn)換結(jié)果,為什么?

    剛買的ADS1278EVM想進行數(shù)模轉(zhuǎn)換,但是給通道一送入正弦波(峰峰值為0.2V--1.2V)完全看不到轉(zhuǎn)換結(jié)果,就看到母板上8位數(shù)碼管在閃,謝謝您能為我解答 ,搞了好幾天了也沒進展!
    發(fā)表于 01-15 08:23

    ADS7883無論如何都找不到輸出,怎么回事?

    最近測試了ADS7883,無論如何都找不到輸出,時序圖拿示波器捕捉了,和芯片資料上是一致的,就是看不到輸出。 懷疑是芯片買到假的了,有沒有簡單的方法判斷下這顆芯片是好是壞啊?比如接電源后測試某些
    發(fā)表于 01-14 08:36

    使用AFE4300測量人體阻抗,用示波器看不到RDY的8us的觸發(fā)信號,為什么?

    你好,我在使用AFE4300測量人體阻抗,打算使用FullWave方式,采用Continuous模式,但是用示波器看不到RDY的8us的觸發(fā)信號, 下面是我的初始化步驟,麻煩你們看看是否正確
    發(fā)表于 01-13 08:11

    ADS129xECG-FE直接測人體信號時,看不到心電信號,為什么?

    ADS129xECG-FE 直接測人體信號時,看不到心電信號 接心電模擬儀信號很好。
    發(fā)表于 01-07 07:12

    請問AFE4900EVM看不到ECG波形怎么辦?

    我在官網(wǎng)上購買了AFE4900EVM并下載了相關軟件,現(xiàn)在測試spo2波形可以看到,但ECG波形怎么設置都看不到,仿真器和人體測試都試了。請問要怎樣才能看到ECG 波形。
    發(fā)表于 12-11 06:11

    使用寄存器配置測試BIAS_MEAS時,看不了共模電壓數(shù)據(jù),為什么?

    我現(xiàn)在使用寄存器配置測試BIAS_MEAS時,發(fā)現(xiàn)看不了共模電壓數(shù)據(jù); 我通過測試通道1共模電壓,路由到通道8測試,通道8看不到信號,請幫忙看看寄存器配置是否OK?
    發(fā)表于 11-22 12:53

    ads1299外接波形發(fā)生器看不到信號是怎么回事?

    我使用ADS1299IPG來采集腦電信號,我的硬件電路配置如下 然后我在外部接入波形發(fā)生器,負極接REF,正極接IN1N,然后發(fā)現(xiàn)輸入信號根本看不到波形發(fā)生器的信號,請問下我的SRB1
    發(fā)表于 11-21 07:49

    TINA虛擬示波器看不到輸出波形是為什么?

    TINA虛擬示波器看不到輸出波形
    發(fā)表于 08-14 07:24

    AT 0.60.0.0看不到我的Wi-Fi網(wǎng)絡,為什么?

    我對 AT 0.60.0.0 有一點問題。當我通過 AT CWLAP 顯示所有網(wǎng)絡時,我看不到我的路由器 AP 網(wǎng)絡,但我可以連接到它。當我在智能手機中打開 Wi-Fi 熱點時,我可以看到我的熱點
    發(fā)表于 07-18 08:31