在視覺方面,AI和人類的差距有多大?來自UC Berkeley等高校的研究人員創(chuàng)建了一個包含7500個“自然對抗實例”的數(shù)據(jù)集,在測試了許多機器視覺系統(tǒng)后,發(fā)現(xiàn)AI的準(zhǔn)確率下降了90%!在某些情況下,軟件只能識別2%-3%的圖像。這樣的AI若用在自動駕駛汽車上,后果不敢想象!
近幾年來,計算機視覺有了很大的改善,但仍然有可能犯嚴(yán)重的錯誤。犯錯如此之多,以至于有一個研究領(lǐng)域致力于研究AI經(jīng)常誤認(rèn)的圖片,稱為“對抗性圖像”??梢园阉鼈兛醋饔嬎銠C的光學(xué)錯覺,當(dāng)你看到樹上有一只貓時,人工智能看到了一只松鼠。
AI把爬上樹的貓誤認(rèn)為松鼠
研究這些圖像是很有必要的。當(dāng)我們把機器視覺系統(tǒng)放在AI安全攝像頭和自動駕駛汽車等新技術(shù)的核心位置時,我們相信計算機和我們看到的世界是一樣的。而對抗性圖像證明并非如此。
對抗性圖像利用機器學(xué)習(xí)系統(tǒng)中的弱點
但是,盡管這個領(lǐng)域的很多關(guān)注點都集中在那些專門設(shè)計用來愚弄AI的圖片上(比如谷歌的算法把3D打印的烏龜誤認(rèn)為是一把槍),但這些迷惑性圖像也會自然的出現(xiàn)。這類圖像更令人擔(dān)憂,因為它表明,即便不是我們特意制作的,視覺系統(tǒng)也會犯錯。
谷歌AI誤認(rèn)為這只烏龜是槍
為了證明這一點,來自加州大學(xué)伯克利分校、華盛頓大學(xué)和芝加哥大學(xué)的一組研究人員創(chuàng)建了一個包含7500個“自然對抗實例”(natural adversarial examples)的數(shù)據(jù)集,他們在這些數(shù)據(jù)上測試了許多機器視覺系統(tǒng),發(fā)現(xiàn)它們的準(zhǔn)確率下降了90%,在某些情況下,軟件只能識別2%-3%的圖像。
下面就是一些“自然對抗實例”數(shù)據(jù)集的例子:
AI眼中是“沉船”,其實是蟲子爬在枯葉上
AI眼中是“火炬”
AI眼中是“瓢蟲”
AI眼中是“日晷”
AI眼中是“棒球運動員”
AI眼中是“人開卡丁車”
這些數(shù)據(jù)有望幫助培養(yǎng)更強大的視覺系統(tǒng)
在論文中,研究人員稱這些數(shù)據(jù)有望幫助培養(yǎng)更強大的視覺系統(tǒng)。他們解釋說,這些圖像利用了“深層缺陷”,這些缺陷源于該軟件“過度依賴顏色,紋理和背景線索”來識別它所看到的東西。
例如,在下面的圖像中,AI錯誤地將左側(cè)的圖片當(dāng)作釘子,這可能是因為圖片的木紋背景。在右邊的圖像中,它們只注意到蜂鳥飼養(yǎng)器,但卻錯過了沒有真正的蜂鳥存在的事實。
下面的四張蜻蜓照片,AI在顏色和紋理上進行分析后,從左到右依次會識別為臭鼬、香蕉、海獅和手套。我們從每張圖片中都可以看出AI為什么會犯錯誤。
AI系統(tǒng)會犯這些錯誤并不是新聞了。多年來,研究人員一直警告說,利用深度學(xué)習(xí)創(chuàng)建的視覺系統(tǒng)是“淺薄”和“脆弱”的,它們不會像人一樣靈活地理解世界上的一些幾乎相同的細(xì)微差別。
這些AI系統(tǒng)在成千上萬的示例圖像上進行了訓(xùn)練,但我們通常不知道圖片中的哪些確切元素是AI用于做出判斷的。
一些研究表明,考慮到整體形狀和內(nèi)容,算法不是從整體上看圖像,而是專注于特定的紋理和細(xì)節(jié)。本次數(shù)據(jù)集中給出的結(jié)果似乎支持這種解釋,例如,在明亮的表面上顯示清晰陰影的圖片,會被錯誤地標(biāo)識為日晷。
AI視覺系統(tǒng)真的沒救了?
但這是否意味著這些機器視覺系統(tǒng)沒得救了?完全不是。一般這些系統(tǒng)所犯的錯誤都是小錯,比如將排水蓋識別為沙井,將貨車誤認(rèn)為豪華轎車等。
雖然研究人員說這些“自然對抗性的例子”會騙過各種各樣的視覺系統(tǒng),但這并不意味著可以騙過所有系統(tǒng)。許多機器視覺系統(tǒng)非常專業(yè),比如用于識別醫(yī)學(xué)掃描圖像中的疾病的那些專門系統(tǒng)。雖然這些系統(tǒng)有著自己的缺點,可能無法理解這個世界和人類,但這并不影響它們發(fā)現(xiàn)并診斷癌癥。
機器視覺系統(tǒng)有時可能會很快且有瑕疵,但通常都會產(chǎn)生結(jié)果。這樣的研究暴露了機器成像研究中的盲點和空白,我們下一步的任務(wù)就是如何填補這些盲點了。
-
機器視覺
+關(guān)注
關(guān)注
163文章
4596瀏覽量
122890 -
AI
+關(guān)注
關(guān)注
88文章
35136瀏覽量
279795
原文標(biāo)題:98%都認(rèn)錯,圖像識別AI遇上對抗性圖像竟變“瞎子”
文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
無人機AI視覺識別系統(tǒng)賦能農(nóng)業(yè)智能種植
斑馬技術(shù)榮獲2025視覺系統(tǒng)設(shè)計創(chuàng)新獎
工業(yè)相機與采集卡配套方案:構(gòu)建高性能機器視覺系統(tǒng)的核心要素

康耐視In-Sight 8900視覺系統(tǒng)賦能高度監(jiān)管行業(yè)
康耐視全新發(fā)布In-Sight 8900視覺系統(tǒng)
工業(yè)相機采集卡:機器視覺系統(tǒng)的關(guān)鍵樞紐

使用Lattice mVision打造嵌入式視覺系統(tǒng)解決方案
海伯森亮相VisionCon合肥視覺系統(tǒng)技術(shù)設(shè)計會議
虹軟AI視覺賦能雷鳥V3 AI拍攝眼鏡發(fā)布
安森美機器視覺系統(tǒng)解決方案

評論