機(jī)器學(xué)習(xí) (ML) 模型的性能既取決于學(xué)習(xí)算法,也取決于用于訓(xùn)練和評(píng)估的數(shù)據(jù)。算法的作用已經(jīng)得到充分研究,也是眾多挑戰(zhàn)(如 SQuAD、GLUE、ImageNet 等)的焦點(diǎn)。此外,數(shù)據(jù)也已經(jīng)過改進(jìn),包括一系列應(yīng)對(duì) ML 評(píng)估問題的研討會(huì)。相比之下,專注于 - 用于評(píng)估 ML 模型的數(shù)據(jù)的研究和挑戰(zhàn)并不常見。
此外,許多評(píng)估數(shù)據(jù)集包含容易評(píng)估的項(xiàng)目,例如帶有易于識(shí)別的主題的照片,因此錯(cuò)過了真實(shí)世界環(huán)境的自然歧義。評(píng)估中缺少模糊的真實(shí)世界樣本,削弱了可靠地測(cè)試機(jī)器學(xué)習(xí)性能的能力,這使 ML 模型容易形成“弱點(diǎn)”,即模型難以或無法準(zhǔn)確評(píng)估的樣本的類別,因?yàn)樵u(píng)估集中缺少這一類樣本。
SQuAD
https://rajpurkar.github.io/SQuAD-explorer/
GLUE
https://gluebenchmark.com/leaderboard
ImageNet
https://kobiso.github.io/Computer-Vision-Leaderboard/imagenet
為了解決識(shí)別 ML 模型中這些弱點(diǎn)的問題,我們最近在 HCOMP 2020 上發(fā)起了眾包機(jī)器學(xué)習(xí)不良測(cè)試集 (CATS4ML) 數(shù)據(jù)挑戰(zhàn)賽(面向全球研究人員和開發(fā)者開放至 2021 年 4 月 30 日)。挑戰(zhàn)的目標(biāo)是提高 ML 評(píng)估集的標(biāo)準(zhǔn),并盡可能多地找到使算法處理起來會(huì)有困惑或其他問題的樣本。CATS4ML 依靠人們的能力和直覺來發(fā)現(xiàn)機(jī)器學(xué)習(xí)具有信心但實(shí)際上卻分類錯(cuò)誤的新數(shù)據(jù)樣本。
眾包機(jī)器學(xué)習(xí)不良測(cè)試集
https://cats4ml.humancomputation.com/
什么是 ML 的“弱點(diǎn)”?
弱點(diǎn)有兩類:已知的未知(Known Unknowns)和未知的未知(Unknown Unknowns)。已知的未知是指模型對(duì)正確分類沒有把握的樣本。研究界在被稱為主動(dòng)學(xué)習(xí)的領(lǐng)域研究這一問題,并發(fā)現(xiàn)了解決方法,用很籠統(tǒng)的話來說就是,在不確定的樣本上向人們交互式地征集新的標(biāo)簽。例如,如果模型不確定一張照片的主題是否是貓,會(huì)要求人員進(jìn)行驗(yàn)證;但如果系統(tǒng)確定,則不會(huì)要求人員驗(yàn)證。雖然這方面還有改進(jìn)的空間,但令人欣慰的是,模型的置信度與其性能相關(guān),也就是說,人們可以看到模型不知道的東西。
主動(dòng)學(xué)習(xí)
http://digital.library.wisc.edu/1793/60660
另一方面,未知的未知是指模型對(duì)其答案充滿信心,但實(shí)際上是錯(cuò)誤的樣本。主動(dòng)發(fā)現(xiàn)未知的未知的研究(例如,Attenberg 2015 和 Crawford 2019)已經(jīng)幫助發(fā)現(xiàn)了大量的非預(yù)期機(jī)器行為。與這類發(fā)現(xiàn)未知的未知方法相比,生成對(duì)抗網(wǎng)絡(luò) (GAN) 以計(jì)算機(jī)光學(xué)錯(cuò)覺的形式為圖像識(shí)別模型生成未知的未知,導(dǎo)致深度學(xué)習(xí)模型犯下人類無法感知的錯(cuò)誤。雖然 GAN 在有意操縱的情況下會(huì)發(fā)現(xiàn)模型漏洞,但真實(shí)世界樣本可以更好地突出模型在日常性能中的失敗。這些真實(shí)世界樣本是 CATS4ML 感興趣的未知的未知 - 挑戰(zhàn)的目的是收集人類可以可靠地解釋但許多 ML 模型會(huì)自信地不同意的未經(jīng)操作的樣本。
Attenberg 2015
https://dl.acm.org/doi/10.1145/2700832
Crawford 2019
https://excavating.ai
示例說明由對(duì)抗噪聲引起的計(jì)算機(jī)視覺錯(cuò)覺如何幫助發(fā)現(xiàn) ML 模型的機(jī)器操作未知的未知(基于 Brown 2018)
Brown 2018
https://ai.googleblog.com/2018/09/introducing-unrestricted-adversarial.html
CATS4ML 數(shù)據(jù)挑戰(zhàn)賽第一版:
Open Images 數(shù)據(jù)集
CATS4ML 數(shù)據(jù)挑戰(zhàn)賽側(cè)重于視覺識(shí)別,使用Open Images 數(shù)據(jù)集的圖像和標(biāo)簽。挑戰(zhàn)賽的目標(biāo)圖像選自 Open Images 數(shù)據(jù)集,以及來自同一數(shù)據(jù)集的一組 24 個(gè)目標(biāo)標(biāo)簽。挑戰(zhàn)賽的參與者被邀請(qǐng)發(fā)明新的創(chuàng)造性方法探索這個(gè)現(xiàn)有的公開可用數(shù)據(jù)集,并以預(yù)先選擇的目標(biāo)標(biāo)簽列表為中心,為 ML 模型發(fā)現(xiàn)未知的未知樣本。
CATS4ML 數(shù)據(jù)挑戰(zhàn)賽
https://cats4ml.humancomputation.com/
CATS4ML 是對(duì) FAIR 最近推出的 DynaBench 動(dòng)態(tài)數(shù)據(jù)收集研究平臺(tái)的補(bǔ)充。DynaBench 使用 ML 模型在人類參與下解決靜態(tài)基準(zhǔn)問題,而 CATS4ML 則專注于通過鼓勵(lì)探索現(xiàn)有 ML 基準(zhǔn)有無可能屬于未知的未知不利樣本改善 ML 評(píng)估數(shù)據(jù)集。結(jié)果將有助于檢測(cè)和避免未來的錯(cuò)誤,也將對(duì)模型的可解釋性提供見解。
FAIR
https://ai.facebook.com/tools/dynabench/
DynaBench
https://dynabench.org/
CATS4ML 旨在由此通過提供數(shù)據(jù)集資源來提高人們對(duì)這個(gè)問題的認(rèn)識(shí),開發(fā)者可以利用這些資源發(fā)現(xiàn)算法弱點(diǎn)。這也將讓研究人員了解如何為機(jī)器學(xué)習(xí)創(chuàng)建更平衡、更多樣化、更具有社會(huì)意識(shí)的基準(zhǔn)數(shù)據(jù)集。
編輯:jq
-
數(shù)據(jù)
+關(guān)注
關(guān)注
8文章
7256瀏覽量
91859 -
GLUE
+關(guān)注
關(guān)注
0文章
5瀏覽量
7485 -
機(jī)器學(xué)習(xí)
+關(guān)注
關(guān)注
66文章
8503瀏覽量
134603
原文標(biāo)題:探索機(jī)器學(xué)習(xí)中的未解之謎
文章出處:【微信號(hào):tensorflowers,微信公眾號(hào):Tensorflowers】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
NanoEdge AI Studio 面向STM32開發(fā)人員機(jī)器學(xué)習(xí)(ML)技術(shù)

Raspberry Pi Pico 2 上實(shí)現(xiàn):實(shí)時(shí)機(jī)器學(xué)習(xí)(ML)音頻噪音抑制功能

機(jī)器學(xué)習(xí)模型市場(chǎng)前景如何
《具身智能機(jī)器人系統(tǒng)》第7-9章閱讀心得之具身智能機(jī)器人與大模型
如何在低功耗MCU上實(shí)現(xiàn)人工智能和機(jī)器學(xué)習(xí)
cmp在機(jī)器學(xué)習(xí)中的作用 如何使用cmp進(jìn)行數(shù)據(jù)對(duì)比
自然語言處理與機(jī)器學(xué)習(xí)的關(guān)系 自然語言處理的基本概念及步驟
ASR和機(jī)器學(xué)習(xí)的關(guān)系
AI大模型與深度學(xué)習(xí)的關(guān)系
AI大模型與傳統(tǒng)機(jī)器學(xué)習(xí)的區(qū)別
為AI、ML和數(shù)字孿生模型建立可信數(shù)據(jù)
AI引擎機(jī)器學(xué)習(xí)陣列指南

【《時(shí)間序列與機(jī)器學(xué)習(xí)》閱讀體驗(yàn)】+ 時(shí)間序列的信息提取
【《大語言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)知識(shí)學(xué)習(xí)
如何訓(xùn)練一個(gè)有效的eIQ基本分類模型

評(píng)論