一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

探究機(jī)器學(xué)習(xí) (ML) 模型的性能

Tensorflowers ? 來源:TensorFlow ? 作者:Lora Aroyo 和 Pravee ? 2021-04-13 14:37 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

機(jī)器學(xué)習(xí) (ML) 模型的性能既取決于學(xué)習(xí)算法,也取決于用于訓(xùn)練和評(píng)估的數(shù)據(jù)。算法的作用已經(jīng)得到充分研究,也是眾多挑戰(zhàn)(如 SQuAD、GLUE、ImageNet 等)的焦點(diǎn)。此外,數(shù)據(jù)也已經(jīng)過改進(jìn),包括一系列應(yīng)對(duì) ML 評(píng)估問題的研討會(huì)。相比之下,專注于 - 用于評(píng)估 ML 模型的數(shù)據(jù)的研究和挑戰(zhàn)并不常見。

此外,許多評(píng)估數(shù)據(jù)集包含容易評(píng)估的項(xiàng)目,例如帶有易于識(shí)別的主題的照片,因此錯(cuò)過了真實(shí)世界環(huán)境的自然歧義。評(píng)估中缺少模糊的真實(shí)世界樣本,削弱了可靠地測(cè)試機(jī)器學(xué)習(xí)性能的能力,這使 ML 模型容易形成“弱點(diǎn)”,即模型難以或無法準(zhǔn)確評(píng)估的樣本的類別,因?yàn)樵u(píng)估集中缺少這一類樣本。

SQuAD

https://rajpurkar.github.io/SQuAD-explorer/

GLUE

https://gluebenchmark.com/leaderboard

ImageNet

https://kobiso.github.io/Computer-Vision-Leaderboard/imagenet

為了解決識(shí)別 ML 模型中這些弱點(diǎn)的問題,我們最近在 HCOMP 2020 上發(fā)起了眾包機(jī)器學(xué)習(xí)不良測(cè)試集 (CATS4ML) 數(shù)據(jù)挑戰(zhàn)賽(面向全球研究人員和開發(fā)者開放至 2021 年 4 月 30 日)。挑戰(zhàn)的目標(biāo)是提高 ML 評(píng)估集的標(biāo)準(zhǔn),并盡可能多地找到使算法處理起來會(huì)有困惑或其他問題的樣本。CATS4ML 依靠人們的能力和直覺來發(fā)現(xiàn)機(jī)器學(xué)習(xí)具有信心但實(shí)際上卻分類錯(cuò)誤的新數(shù)據(jù)樣本。

眾包機(jī)器學(xué)習(xí)不良測(cè)試集

https://cats4ml.humancomputation.com/

什么是 ML 的“弱點(diǎn)”?

弱點(diǎn)有兩類:已知的未知(Known Unknowns)未知的未知(Unknown Unknowns)。已知的未知是指模型對(duì)正確分類沒有把握的樣本。研究界在被稱為主動(dòng)學(xué)習(xí)的領(lǐng)域研究這一問題,并發(fā)現(xiàn)了解決方法,用很籠統(tǒng)的話來說就是,在不確定的樣本上向人們交互式地征集新的標(biāo)簽。例如,如果模型不確定一張照片的主題是否是貓,會(huì)要求人員進(jìn)行驗(yàn)證;但如果系統(tǒng)確定,則不會(huì)要求人員驗(yàn)證。雖然這方面還有改進(jìn)的空間,但令人欣慰的是,模型的置信度與其性能相關(guān),也就是說,人們可以看到模型不知道的東西。

主動(dòng)學(xué)習(xí)

http://digital.library.wisc.edu/1793/60660

另一方面,未知的未知是指模型對(duì)其答案充滿信心,但實(shí)際上是錯(cuò)誤的樣本。主動(dòng)發(fā)現(xiàn)未知的未知的研究(例如,Attenberg 2015 和 Crawford 2019)已經(jīng)幫助發(fā)現(xiàn)了大量的非預(yù)期機(jī)器行為。與這類發(fā)現(xiàn)未知的未知方法相比,生成對(duì)抗網(wǎng)絡(luò) (GAN) 以計(jì)算機(jī)光學(xué)錯(cuò)覺的形式為圖像識(shí)別模型生成未知的未知,導(dǎo)致深度學(xué)習(xí)模型犯下人類無法感知的錯(cuò)誤。雖然 GAN 在有意操縱的情況下會(huì)發(fā)現(xiàn)模型漏洞,但真實(shí)世界樣本可以更好地突出模型在日常性能中的失敗。這些真實(shí)世界樣本是 CATS4ML 感興趣的未知的未知 - 挑戰(zhàn)的目的是收集人類可以可靠地解釋但許多 ML 模型會(huì)自信地不同意的未經(jīng)操作的樣本。

Attenberg 2015

https://dl.acm.org/doi/10.1145/2700832

Crawford 2019

https://excavating.ai

示例說明由對(duì)抗噪聲引起的計(jì)算機(jī)視覺錯(cuò)覺如何幫助發(fā)現(xiàn) ML 模型的機(jī)器操作未知的未知(基于 Brown 2018)

Brown 2018

https://ai.googleblog.com/2018/09/introducing-unrestricted-adversarial.html

CATS4ML 數(shù)據(jù)挑戰(zhàn)賽第一版:

Open Images 數(shù)據(jù)集

CATS4ML 數(shù)據(jù)挑戰(zhàn)賽側(cè)重于視覺識(shí)別,使用Open Images 數(shù)據(jù)集的圖像和標(biāo)簽。挑戰(zhàn)賽的目標(biāo)圖像選自 Open Images 數(shù)據(jù)集,以及來自同一數(shù)據(jù)集的一組 24 個(gè)目標(biāo)標(biāo)簽。挑戰(zhàn)賽的參與者被邀請(qǐng)發(fā)明新的創(chuàng)造性方法探索這個(gè)現(xiàn)有的公開可用數(shù)據(jù)集,并以預(yù)先選擇的目標(biāo)標(biāo)簽列表為中心,為 ML 模型發(fā)現(xiàn)未知的未知樣本。

CATS4ML 數(shù)據(jù)挑戰(zhàn)賽

https://cats4ml.humancomputation.com/

CATS4ML 是對(duì) FAIR 最近推出的 DynaBench 動(dòng)態(tài)數(shù)據(jù)收集研究平臺(tái)的補(bǔ)充。DynaBench 使用 ML 模型在人類參與下解決靜態(tài)基準(zhǔn)問題,而 CATS4ML 則專注于通過鼓勵(lì)探索現(xiàn)有 ML 基準(zhǔn)有無可能屬于未知的未知不利樣本改善 ML 評(píng)估數(shù)據(jù)集。結(jié)果將有助于檢測(cè)和避免未來的錯(cuò)誤,也將對(duì)模型的可解釋性提供見解。

FAIR

https://ai.facebook.com/tools/dynabench/

DynaBench

https://dynabench.org/

CATS4ML 旨在由此通過提供數(shù)據(jù)集資源來提高人們對(duì)這個(gè)問題的認(rèn)識(shí),開發(fā)者可以利用這些資源發(fā)現(xiàn)算法弱點(diǎn)。這也將讓研究人員了解如何為機(jī)器學(xué)習(xí)創(chuàng)建更平衡、更多樣化、更具有社會(huì)意識(shí)的基準(zhǔn)數(shù)據(jù)集。

編輯:jq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 數(shù)據(jù)
    +關(guān)注

    關(guān)注

    8

    文章

    7256

    瀏覽量

    91859
  • GLUE
    +關(guān)注

    關(guān)注

    0

    文章

    5

    瀏覽量

    7485
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8503

    瀏覽量

    134603

原文標(biāo)題:探索機(jī)器學(xué)習(xí)中的未解之謎

文章出處:【微信號(hào):tensorflowers,微信公眾號(hào):Tensorflowers】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    NanoEdge AI Studio 面向STM32開發(fā)人員機(jī)器學(xué)習(xí)ML)技術(shù)

    NanoEdge? AI Studio*(NanoEdgeAIStudio)是一種新型機(jī)器學(xué)習(xí)ML)技術(shù),可以讓終端用戶輕松享有真正的創(chuàng)新成果。只需幾步,開發(fā)人員便可基于最少量的數(shù)據(jù)為其項(xiàng)目創(chuàng)建
    的頭像 發(fā)表于 04-22 11:09 ?589次閱讀
    NanoEdge AI Studio 面向STM32開發(fā)人員<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>(<b class='flag-5'>ML</b>)技術(shù)

    Raspberry Pi Pico 2 上實(shí)現(xiàn):實(shí)時(shí)機(jī)器學(xué)習(xí)ML)音頻噪音抑制功能

    Arm公司的首席軟件工程師SandeepMistry為我們展示了一種全新的巧妙方法:在RaspberryPiPico2上如何將音頻噪音抑制應(yīng)用于麥克風(fēng)輸入。機(jī)器學(xué)習(xí)ML)技術(shù)徹底改變了許多軟件應(yīng)用
    的頭像 發(fā)表于 03-25 09:46 ?380次閱讀
    Raspberry Pi Pico 2 上實(shí)現(xiàn):實(shí)時(shí)<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>(<b class='flag-5'>ML</b>)音頻噪音抑制功能

    機(jī)器學(xué)習(xí)模型市場(chǎng)前景如何

    當(dāng)今,隨著算法的不斷優(yōu)化、數(shù)據(jù)量的爆炸式增長以及計(jì)算能力的飛速提升,機(jī)器學(xué)習(xí)模型的市場(chǎng)前景愈發(fā)廣闊。下面,AI部落小編將探討機(jī)器學(xué)習(xí)
    的頭像 發(fā)表于 02-13 09:39 ?359次閱讀

    《具身智能機(jī)器人系統(tǒng)》第7-9章閱讀心得之具身智能機(jī)器人與大模型

    醫(yī)療領(lǐng)域,手術(shù)輔助機(jī)器人需要毫米級(jí)的精確控制,書中有介紹基于視覺伺服的實(shí)時(shí)控制算法,以及如何利用大模型優(yōu)化手術(shù)路徑規(guī)劃。工業(yè)場(chǎng)景中,協(xié)作機(jī)器人面臨的主要挑戰(zhàn)是快速適應(yīng)新工藝流程。具身智能通過在線
    發(fā)表于 12-24 15:03

    如何在低功耗MCU上實(shí)現(xiàn)人工智能和機(jī)器學(xué)習(xí)

    人工智能 (AI) 和機(jī)器學(xué)習(xí) (ML) 的技術(shù)不僅正在快速發(fā)展,還逐漸被創(chuàng)新性地應(yīng)用于低功耗的微控制器 (MCU) 中,從而實(shí)現(xiàn)邊緣AI/ML的解決方案。
    的頭像 發(fā)表于 12-17 16:06 ?867次閱讀

    cmp在機(jī)器學(xué)習(xí)中的作用 如何使用cmp進(jìn)行數(shù)據(jù)對(duì)比

    機(jī)器學(xué)習(xí)領(lǐng)域,"cmp"這個(gè)術(shù)語可能并不是一個(gè)常見的術(shù)語,它可能是指"比較"(comparison)的縮寫。 比較在機(jī)器學(xué)習(xí)中的作用 模型
    的頭像 發(fā)表于 12-17 09:35 ?881次閱讀

    自然語言處理與機(jī)器學(xué)習(xí)的關(guān)系 自然語言處理的基本概念及步驟

    Learning,簡(jiǎn)稱ML)是人工智能的一個(gè)核心領(lǐng)域,它使計(jì)算機(jī)能夠從數(shù)據(jù)中學(xué)習(xí)并做出預(yù)測(cè)或決策。自然語言處理與機(jī)器學(xué)習(xí)之間有著密切的關(guān)系,因?yàn)?b class='flag-5'>機(jī)
    的頭像 發(fā)表于 12-05 15:21 ?1985次閱讀

    ASR和機(jī)器學(xué)習(xí)的關(guān)系

    自動(dòng)語音識(shí)別(ASR)技術(shù)的發(fā)展一直是人工智能領(lǐng)域的一個(gè)重要分支,它使得機(jī)器能夠理解和處理人類語言。隨著機(jī)器學(xué)習(xí)ML)技術(shù)的迅猛發(fā)展,ASR系統(tǒng)的
    的頭像 發(fā)表于 11-18 15:16 ?781次閱讀

    AI大模型與深度學(xué)習(xí)的關(guān)系

    AI大模型與深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進(jìn),相輔相成。以下是對(duì)兩者關(guān)系的介紹: 一、深度學(xué)習(xí)是AI大模型的基礎(chǔ) 技術(shù)支撐 :深度學(xué)習(xí)
    的頭像 發(fā)表于 10-23 15:25 ?2887次閱讀

    AI大模型與傳統(tǒng)機(jī)器學(xué)習(xí)的區(qū)別

    AI大模型與傳統(tǒng)機(jī)器學(xué)習(xí)在多個(gè)方面存在顯著的區(qū)別。以下是對(duì)這些區(qū)別的介紹: 一、模型規(guī)模與復(fù)雜度 AI大模型 :通常包含數(shù)十億甚至數(shù)萬億的參
    的頭像 發(fā)表于 10-23 15:01 ?2577次閱讀

    為AI、ML和數(shù)字孿生模型建立可信數(shù)據(jù)

    在當(dāng)今數(shù)據(jù)驅(qū)動(dòng)的世界中,人工智能(AI)、機(jī)器學(xué)習(xí)ML)和數(shù)字孿生技術(shù)正在深刻改變行業(yè)、流程和企業(yè)運(yùn)營環(huán)境。每天產(chǎn)生的超過3.28億TB數(shù)據(jù)已成為新“石油”——為下一代數(shù)字系統(tǒng)提供所需的能源。
    的頭像 發(fā)表于 09-30 10:23 ?585次閱讀

    AI引擎機(jī)器學(xué)習(xí)陣列指南

    云端動(dòng)態(tài)工作負(fù)載以及超高帶寬網(wǎng)絡(luò),同時(shí)還可提供高級(jí)安全性功能。AI 和數(shù)據(jù)科學(xué)家以及軟硬件開發(fā)者均可充分利用高計(jì)算密度的優(yōu)勢(shì)來加速提升任何應(yīng)用的性能。AI 引擎機(jī)器學(xué)習(xí)擁有先進(jìn)的張量計(jì)算能力,非常適合用于高度優(yōu)化的 AI 和
    的頭像 發(fā)表于 09-18 09:16 ?822次閱讀
    AI引擎<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>陣列指南

    【《時(shí)間序列與機(jī)器學(xué)習(xí)》閱讀體驗(yàn)】+ 時(shí)間序列的信息提取

    提高機(jī)器學(xué)習(xí)模型效果與性能的過程。 而我對(duì)特征工程的理解就是從一堆數(shù)據(jù)里找出能表示這堆數(shù)據(jù)的最小數(shù)據(jù)集,而這個(gè)找出特征數(shù)據(jù)的過程就是信息提取。 隨后給出了一系列定義,包括特征的最小最大
    發(fā)表于 08-14 18:00

    【《大語言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)知識(shí)學(xué)習(xí)

    今天來學(xué)習(xí)大語言模型在自然語言理解方面的原理以及問答回復(fù)實(shí)現(xiàn)。 主要是基于深度學(xué)習(xí)和自然語言處理技術(shù)。 大語言模型涉及以下幾個(gè)過程: 數(shù)據(jù)收集:大語言
    發(fā)表于 08-02 11:03

    如何訓(xùn)練一個(gè)有效的eIQ基本分類模型

    處理單元(NPU),用于機(jī)器學(xué)習(xí)(ML)加速。相比單獨(dú)的CPU核,eIQ Neutron NPU能夠提供高達(dá)42倍的機(jī)器學(xué)習(xí)推理
    的頭像 發(fā)表于 08-01 09:29 ?2823次閱讀
    如何訓(xùn)練一個(gè)有效的eIQ基本分類<b class='flag-5'>模型</b>