一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何創(chuàng)建高質(zhì)量、大規(guī)模、多語言的數(shù)據(jù)集

Tensorflowers ? 來源:TensorFlow ? 作者:TensorFlow ? 2021-10-29 10:22 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

多模式視覺語言模型依賴大量數(shù)據(jù)集來對圖像和文本之間的關(guān)系進(jìn)行建模。一般來說,這些數(shù)據(jù)集有兩種創(chuàng)建方法:手動(dòng)為圖像添加文字說明,或抓取網(wǎng)頁并提取替代文本 (alt-text)作為文字說明。雖然前一種方法更利于產(chǎn)生更高質(zhì)量的數(shù)據(jù),但高強(qiáng)度的人工注釋過程限制了可創(chuàng)建的數(shù)據(jù)量。另一方面,雖然自動(dòng)提取方法可以產(chǎn)生更大的數(shù)據(jù)集,但卻需要通過啟發(fā)式算法以及仔細(xì)過濾來確保數(shù)據(jù)質(zhì)量,或者擴(kuò)展模型來保證強(qiáng)大性能?,F(xiàn)有數(shù)據(jù)集的另一個(gè)缺點(diǎn)是極少涉及非英語語言。這不禁讓我們產(chǎn)生疑問:我們能否突破這些限制,創(chuàng)建包含各種內(nèi)容的高質(zhì)量、大規(guī)模、多語言數(shù)據(jù)集?

圖像和文本之間的關(guān)系

https://ai.googleblog.com/2014/11/a-picture-is-worth-thousand-coherent.html

確保數(shù)據(jù)質(zhì)量

https://ai.googleblog.com/2018/09/conceptual-captions-new-dataset-and.html

對此,我們推出了基于維基百科的圖像文本 (WIT) 數(shù)據(jù)集。這是一個(gè)大型多模式數(shù)據(jù)集,通過從維基百科文章和 Wikimedia 圖像鏈接中提取與圖像相關(guān)的多種不同文本選擇集創(chuàng)建而成。在創(chuàng)建過程中會(huì)執(zhí)行嚴(yán)格的過濾環(huán)節(jié),以便僅保留高質(zhì)量的圖像文本集。

基于維基百科的圖像文本 (WIT) 數(shù)據(jù)集

https://github.com/google-research-datasets/wit

如我們在 SIGIR 2021 上發(fā)布的“WIT:適用于多模式、多語言機(jī)器學(xué)習(xí)的基于維基百科的圖像文本數(shù)據(jù)集 (WIT: Wikipedia-based Image Text Dataset for Multimodal Multilingual Machine Learning)”中詳細(xì)說明的那樣,該過程產(chǎn)生一個(gè)包含 3750 萬個(gè)實(shí)體豐富的圖像文本示例精選集,其中涵蓋 1150 萬張獨(dú)特的圖像,跨越 108 種語言。大家可憑知識共享許可下載并使用 WIT 數(shù)據(jù)集。此外,我們也很高興地宣布,我們將與 Wikimedia Research 以及其他外部協(xié)作者攜手在 Kaggle 舉辦 WIT 數(shù)據(jù)集的競賽。

數(shù)據(jù)集 圖像
數(shù)量
文本 上下文
文本
語言數(shù)量
Flickr30K 32K 158K - < 8
SBU Captions 1M 1M - 1
MS-COCO 330K 1.5M - < 4;7
(僅限測試)
CC-3M 3.3M 3.3M - 1
CC-12M 12M 12M - 1
WIT 11.5M 37.5M ~119M 108

相比以往數(shù)據(jù)集,WIT 的語言更多,規(guī)模更大

WIT 數(shù)據(jù)集的獨(dú)特優(yōu)勢包括:

1. 大規(guī)模:WIT 是公開提供的最大的圖像文本示例多模式數(shù)據(jù)集。

2.多語言:WIT 擁有 108 種語言,是其他數(shù)據(jù)集的十倍或以上。

3.上下文信息:與典型的多模式數(shù)據(jù)集(每個(gè)圖像只有一個(gè)文字說明)不同,WIT 包含許多頁面級和部分級上下文信息。

4.現(xiàn)實(shí)世界實(shí)體:維基百科是一個(gè)覆蓋廣泛的知識庫,其豐富的現(xiàn)實(shí)世界實(shí)體可以在 WIT 中得以體現(xiàn)。

5.具有挑戰(zhàn)性的測試集:在我們最近獲得 EMNLP 接受的研究中,所有最先進(jìn)的模型在 WIT 上表現(xiàn)出的性能都明顯低于傳統(tǒng)評估集,例如平均召回率 (recall)下降約 30 點(diǎn)。

最近獲得 EMNLP 接受的研究

https://arxiv.org/abs/2109.05125

數(shù)據(jù)集的創(chuàng)建過程

WIT 的主要目標(biāo)是在不犧牲質(zhì)量和概念覆蓋面的情況下創(chuàng)建大型數(shù)據(jù)集。因此,我們選擇利用當(dāng)今最大的在線百科全書:維基百科。

就可用信息的深度而言,我們以維基百科上的“Half Dome”(加州約塞米蒂國家公園)頁面為例如下所示,文章為圖像提供了許多有趣的文本說明和相關(guān)的上下文信息,如頁面標(biāo)題、主要頁面描述以及其他上下文信息和元數(shù)據(jù)。

我們首先選擇包含圖像的維基百科頁面,然后提取各種圖像文本關(guān)聯(lián)內(nèi)容和周圍的上下文。為進(jìn)一步優(yōu)化數(shù)據(jù),我們執(zhí)行嚴(yán)格的過濾環(huán)節(jié)來確保數(shù)據(jù)質(zhì)量。過濾過程包含:

基于文本的過濾,以確保文字說明的可用性、長度和質(zhì)量(例如通過刪除通用默認(rèn)填充文本);

基于圖像的過濾,以確保每個(gè)圖像都具有特定的大小且擁有允許的許可;

基于圖像和文本實(shí)體的過濾,以確保適合研究(例如排除仇恨類言論)。

接著我們進(jìn)一步對圖像文字說明集隨機(jī)抽樣,由真人進(jìn)行校對評估,他們中絕大多數(shù)人都認(rèn)可一個(gè)結(jié)論:98% 樣本其圖像與文字說明一致。

高度語言多樣性

WIT 擁有 108 種語言的數(shù)據(jù),是首個(gè)大規(guī)模、多語言、多模式數(shù)據(jù)集。

圖像文本集數(shù)量 獨(dú)特語言
數(shù)量
圖像數(shù)量 獨(dú)特語言
數(shù)量
> 1M 9 > 1M 6
500K - 1M 10 500K - 1M 12
100K - 500K 36 100K - 500K 35
50K - 100K 15 50K - 100K 17
14K - 50K 38 13K - 50K 38

WIT:跨語言覆蓋統(tǒng)計(jì)信息

首個(gè)上下文圖像文字?jǐn)?shù)據(jù)集

大多數(shù)多模式數(shù)據(jù)集僅為給定圖像提供單個(gè)文本說明(或類似文字說明的多個(gè)版本)。WIT 是首個(gè)提供上下文信息的數(shù)據(jù)集, 可以幫助研究人員就上下文對圖像文字說明以及圖像選擇的影響進(jìn)行建模。

具體而言,可能有助于研究的 WIT 關(guān)鍵文本字段包括:

文本說明:WIT 提供三種不同的圖像文字說明,包括(可能受上下文影響的)“參考描述”、(可能不受上下文影響的)“屬性描述”,以及“替代文本描述”。

上下文信息:包括頁面標(biāo)題、頁面描述、網(wǎng)址和有關(guān)維基百科部分的局部上下文(包括部分標(biāo)題和文本)。

如下所示,WIT 在以下不同字段具有廣泛的覆蓋。

WIT 圖像
文字字段
訓(xùn)練 Val 測試 合計(jì)/獨(dú)特
行/元組 37.1M 261.8K 210.7K 37.6M
獨(dú)特的圖像 11.4M 58K 57K 11.5M
參考描述 16.9M 150K 104K 17.2M/16.7M
屬性描述 34.8M 193K 200K 35.2M/10.9M
替代文本 5.3M 29K 29K 5.4M/5.3M
上下文文本 - - - 119.8M

WIT 的關(guān)鍵字段兼有文本說明和上下文信息

高質(zhì)量訓(xùn)練集與

具有挑戰(zhàn)性的評估基準(zhǔn)

維基百科廣泛覆蓋各種概念,這意味著 WIT 評估集作為評估基準(zhǔn)非常具有挑戰(zhàn)性,即使對于最先進(jìn)的模型而言也是如此。在圖像文本檢索方面,我們發(fā)現(xiàn)傳統(tǒng)數(shù)據(jù)集的平均召回分?jǐn)?shù) (mean recall scores)為 80 秒,而對于 WIT 測試集而言,資源豐富的語言為 40 秒,資源不足的語言為 30 秒。我們希望這可以轉(zhuǎn)而幫助研究人員構(gòu)建更強(qiáng)大、更穩(wěn)健的模型。

WIT 數(shù)據(jù)集與 Wikimedia 和

Kaggle 攜手開展競賽

此外,非常高興地宣布,我們將攜手 Wikimedia Research 以及一些外部協(xié)作者共同組織 WIT 測試集的競賽。競賽將在 Kaggle 舉辦,競賽任務(wù)為圖像文本檢索。我們將給定一組圖像和文本說明,而參賽者的任務(wù)是為每個(gè)圖像檢索適當(dāng)?shù)奈淖终f明。

為促進(jìn)該領(lǐng)域的研究,維基百科為大部分訓(xùn)練和測試數(shù)據(jù)集提供了 300 像素分辨率的圖像和基于 Resnet-50 的圖像嵌入向量。除 WIT 數(shù)據(jù)集以外,Kaggle 還將托管所有圖像數(shù)據(jù),并提供 Colab notebooks。此外,參賽者屆時(shí)可訪問 Kaggle 論壇,以便分享代碼和開展協(xié)作。任何對多模態(tài)感興趣的人都可以借此輕松開始并運(yùn)行實(shí)驗(yàn)。我們很高興并且期待各位參賽者可以在 Kaggle 平臺,通過 WIT 數(shù)據(jù)集和維基百科圖像為我們帶來精彩表現(xiàn)。

結(jié)論

我們相信 WIT 數(shù)據(jù)集將幫助研究人員構(gòu)建更好的多模態(tài)多語言模型,并識別更好的學(xué)習(xí)和表征技術(shù),最終借助視覺語言數(shù)據(jù)在現(xiàn)實(shí)世界任務(wù)中優(yōu)化機(jī)器學(xué)習(xí)模型。如有任何問題,請聯(lián)系 wit-dataset@google.com。我們非常愿意傾聽您如何使用 WIT 數(shù)據(jù)集。

責(zé)任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 數(shù)據(jù)
    +關(guān)注

    關(guān)注

    8

    文章

    7255

    瀏覽量

    91805
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3517

    瀏覽量

    50381
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8501

    瀏覽量

    134562

原文標(biāo)題:基于維基百科的圖像文本數(shù)據(jù)集 (WIT)

文章出處:【微信號:tensorflowers,微信公眾號:Tensorflowers】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    新能源變革之路,要建在“高質(zhì)量”的路基上

    高質(zhì)量”是能源革命的前提與基座
    的頭像 發(fā)表于 06-24 11:42 ?1671次閱讀
    新能源變革之路,要建在“<b class='flag-5'>高質(zhì)量</b>”的路基上

    淺析:數(shù)字經(jīng)濟(jì)時(shí)代,高質(zhì)量數(shù)據(jù)對AI產(chǎn)業(yè)帶來哪些新的變化

    大模型技術(shù)不斷取得突破,其中大規(guī)模高質(zhì)量訓(xùn)練數(shù)據(jù)的投入,起到了關(guān)鍵作用,也進(jìn)一步將?“以數(shù)據(jù)為中心的人工智能”?推向一個(gè)新階段。從早期簡單的圖像識別、語音識別,到如今復(fù)雜的自然
    的頭像 發(fā)表于 05-09 15:10 ?279次閱讀

    高質(zhì)量 HarmonyOS 權(quán)限管控流程

    高質(zhì)量 HarmonyOS 權(quán)限管控流程 在 HarmonyOS 應(yīng)用開發(fā)過程中,往往會(huì)涉及到 敏感數(shù)據(jù) 和 硬件資源 的調(diào)動(dòng)和訪問,而這部分的調(diào)用就會(huì)涉及到管控這部分的知識和內(nèi)容了。我們需要對它有
    的頭像 發(fā)表于 04-02 18:29 ?920次閱讀
    <b class='flag-5'>高質(zhì)量</b> HarmonyOS 權(quán)限管控流程

    AgiBot World Colosseo:構(gòu)建通用機(jī)器人智能的規(guī)模數(shù)據(jù)平臺

    AgiBot World Colosseo:構(gòu)建通用機(jī)器人智能的規(guī)模數(shù)據(jù)平臺 隨著人工智能在語言處理和計(jì)算機(jī)視覺領(lǐng)域取得突破,機(jī)器人技術(shù)仍面臨現(xiàn)實(shí)場景泛化能力的挑戰(zhàn)。這一困境的核心在于高質(zhì)量
    的頭像 發(fā)表于 03-12 11:42 ?1072次閱讀
    AgiBot World Colosseo:構(gòu)建通用機(jī)器人智能的<b class='flag-5'>規(guī)模</b>化<b class='flag-5'>數(shù)據(jù)</b>平臺

    電動(dòng)工具EMC測試整改:邁向高質(zhì)量生產(chǎn)的必由之路

    深圳南柯電子|電動(dòng)工具EMC測試整改:邁向高質(zhì)量生產(chǎn)的必由之路
    的頭像 發(fā)表于 02-27 09:37 ?398次閱讀
    電動(dòng)工具EMC測試整改:邁向<b class='flag-5'>高質(zhì)量</b>生產(chǎn)的必由之路

    喜報(bào)丨阿丘科技榮登蘇州市人工智能大模型與高質(zhì)量數(shù)據(jù)雙項(xiàng)榜單

    科技”)憑借自主研發(fā)的“PCB缺陷檢測視覺大模型”與“AQ工業(yè)基礎(chǔ)材料加工缺陷數(shù)據(jù)”,分別入選“蘇州市級培育人工智能大模型”及“蘇州市首批行業(yè)高質(zhì)量數(shù)據(jù)”兩大榜單。厚
    的頭像 發(fā)表于 02-21 11:18 ?630次閱讀
    喜報(bào)丨阿丘科技榮登蘇州市人工智能大模型與<b class='flag-5'>高質(zhì)量數(shù)據(jù)</b><b class='flag-5'>集</b>雙項(xiàng)榜單

    廣汽集團(tuán)召開高質(zhì)量發(fā)展大會(huì)

    春回大地,萬象更新。近兩日廣東省、廣州市聚焦“建設(shè)現(xiàn)代化產(chǎn)業(yè)體系”主題,相繼召開“新春第一會(huì)”——高質(zhì)量發(fā)展大會(huì),吹響奮進(jìn)號角。廣汽集團(tuán)黨委書記、董事長馮興亞作為省市重點(diǎn)產(chǎn)業(yè)高質(zhì)量發(fā)展代表參加會(huì)議,與產(chǎn)學(xué)研各界代表共聚一堂,共繪廣東、廣州
    的頭像 發(fā)表于 02-07 10:18 ?593次閱讀

    微軟Copilot Voice升級,積極拓展多語言支持

    近日,據(jù)報(bào)道,微軟近期在人工智能領(lǐng)域取得了新的進(jìn)展,正積極拓展其Copilot Voice的多語言支持功能。這一舉措標(biāo)志著微軟在語音識別和自然語言處理技術(shù)上又邁出了重要一步。 此次Copilot
    的頭像 發(fā)表于 02-06 14:10 ?428次閱讀

    電動(dòng)工具EMC測試整改:邁向高質(zhì)量生產(chǎn)的必經(jīng)之路

    深圳南柯電子|電動(dòng)工具EMC測試整改:邁向高質(zhì)量生產(chǎn)的必經(jīng)之路
    的頭像 發(fā)表于 01-14 14:29 ?509次閱讀
    電動(dòng)工具EMC測試整改:邁向<b class='flag-5'>高質(zhì)量</b>生產(chǎn)的必經(jīng)之路

    借助谷歌Gemini和Imagen模型生成高質(zhì)量圖像

    在快速發(fā)展的生成式 AI 領(lǐng)域,結(jié)合不同模型的優(yōu)勢可以帶來顯著的成果。通過利用谷歌的 Gemini 模型來制作詳細(xì)且富有創(chuàng)意的提示,然后使用 Imagen 3 模型根據(jù)這些提示生成高質(zhì)量的圖像,您可
    的頭像 發(fā)表于 01-03 10:38 ?889次閱讀
    借助谷歌Gemini和Imagen模型生成<b class='flag-5'>高質(zhì)量</b>圖像

    蔡司和億緯鋰能達(dá)成戰(zhàn)略合作關(guān)系 攜手推動(dòng)電池行業(yè)高質(zhì)量發(fā)展

    中國廣東省惠州市,2024年11月21日——蔡司和億緯鋰能簽訂戰(zhàn)略合作協(xié)議,擬憑借億緯鋰能在電池創(chuàng)新研發(fā)、大規(guī)模生產(chǎn)的實(shí)操經(jīng)驗(yàn),及蔡司在全球工業(yè)質(zhì)量領(lǐng)域的多年積累,合作培養(yǎng)電池質(zhì)量人才,從電池材料
    發(fā)表于 12-06 11:14 ?316次閱讀
    蔡司和億緯鋰能達(dá)成戰(zhàn)略合作關(guān)系 攜手推動(dòng)電池行業(yè)<b class='flag-5'>高質(zhì)量</b>發(fā)展

    ChatGPT 的多語言支持特點(diǎn)

    )技術(shù)迎來了巨大的挑戰(zhàn)和機(jī)遇。ChatGPT,作為一個(gè)領(lǐng)先的語言模型,其多語言支持的特點(diǎn)成為了它在眾多應(yīng)用場景中不可或缺的優(yōu)勢。 1. 多語言理解能力 ChatGPT 的多語言支持首先
    的頭像 發(fā)表于 10-25 17:30 ?1506次閱讀

    科大訊飛發(fā)布訊飛星火4.0 Turbo大模型及星火多語言大模型

    ,科大訊飛以其一貫的創(chuàng)新精神,開創(chuàng)性地發(fā)布了星火多語言大模型。這一創(chuàng)新之舉不僅進(jìn)一步鞏固了科大訊飛在中文和英文處理領(lǐng)域的領(lǐng)先地位,更將語言的支持范圍大幅擴(kuò)展,涵蓋了俄語、日語、阿拉伯語、韓語、法語、西班牙語、葡萄牙語以及
    的頭像 發(fā)表于 10-24 13:58 ?902次閱讀

    中興通訊引領(lǐng)5G-A高質(zhì)量發(fā)展新紀(jì)元

    中國5G商用5周年之際,以“智聯(lián)未來 無限可能”為主題的2024移動(dòng)通信高質(zhì)量發(fā)展論壇在北京舉辦。本屆論壇系統(tǒng)呈現(xiàn)總結(jié)我國移動(dòng)通信,特別是5G產(chǎn)業(yè)自身高質(zhì)量發(fā)展和引領(lǐng)數(shù)字經(jīng)濟(jì)高質(zhì)量發(fā)展的成果和經(jīng)驗(yàn),展望5G-A、6G協(xié)同創(chuàng)新發(fā)展
    的頭像 發(fā)表于 10-15 10:32 ?1047次閱讀

    揭秘高質(zhì)量點(diǎn)焊機(jī)的五大標(biāo)準(zhǔn):打造焊接性能的基石

    在現(xiàn)代工業(yè)生產(chǎn)領(lǐng)域,點(diǎn)焊機(jī)的重要性不言而喻。高質(zhì)量的點(diǎn)焊機(jī)如同一位技藝精湛的工匠,確保了不同材料間的牢固連接,其出色的焊接性能、穩(wěn)定的工作狀態(tài)和用戶友好的操作界面,已經(jīng)獲得了業(yè)界的高度評價(jià)。那么
    的頭像 發(fā)表于 09-12 15:26 ?1003次閱讀
    揭秘<b class='flag-5'>高質(zhì)量</b>點(diǎn)焊機(jī)的五大標(biāo)準(zhǔn):打造焊接性能的基石