深度學(xué)習(xí)(或生活中的大部分領(lǐng)域)的關(guān)鍵是演練。演練各種問題-從圖像處理到語音識別。每個問題都有其獨特的細微差別和方法。
但是,哪里可以獲得這些數(shù)據(jù)?現(xiàn)今你看到的很多研究論文都使用通常不向公眾開放的專有數(shù)據(jù)集。而這成為了如果你學(xué)習(xí)并應(yīng)用你新掌握的技能的阻礙。
如果你也遇到此問題,我們有解決方案提供給你。我們挑選了一系列公開可用的數(shù)據(jù)集供各位詳細閱讀。
在本文中,我們列出了一系列高質(zhì)量的數(shù)據(jù)集,每個深度學(xué)習(xí)愛好者都可以應(yīng)用和改進他們的技能。使用這些數(shù)據(jù)集將使你成為一名更好的數(shù)據(jù)科學(xué)家,同時你所學(xué)到的知識將對你的職業(yè)生涯產(chǎn)生無價的幫助-。我們還收錄了具有最新技術(shù)(SOTA)結(jié)果的論文供你瀏覽并改進你的模型。
▌如何使用這些數(shù)據(jù)集
首先要做的事-這些數(shù)據(jù)集的容量相當(dāng)大!所以請確保你的網(wǎng)絡(luò)是高速的、不限流量或有很多流量地下載數(shù)據(jù)。
有很多種可以使用這些數(shù)據(jù)集的方式。你可以使用它們來應(yīng)用各種深度學(xué)習(xí)技巧。也可以使用它們來磨練你的技能,了解如何識別和構(gòu)建每個問題,思考獨特的使用案例并展示給所有人你的發(fā)現(xiàn),讓大家都可以看到!
這些數(shù)據(jù)集分為三類-圖像處理,自然語言處理,以及音頻/語音處理。
讓我們開始更深入的了解!
▌圖像處理
MNIST
MNIST是最受歡迎的深度學(xué)習(xí)數(shù)據(jù)集之一。這是一個手寫數(shù)字數(shù)據(jù)集,包含一組60,000個示例的訓(xùn)練集和一組10,000個示例的測試集。這是一個對于在實際數(shù)據(jù)中嘗試學(xué)習(xí)技術(shù)和深度識別模式的很好的數(shù)據(jù)庫,同時嘗試學(xué)習(xí)如何在數(shù)據(jù)預(yù)處理中花費最少的時間和精力。
大?。?50 MB
記錄數(shù)量:分為10個類別的70,000個圖片
SOTA:Dynamic Routing Between Capsules
MS-COCO
COCO是一個規(guī)模大且豐富的物體檢測,分割和字幕數(shù)據(jù)集。它有幾個特點:
物體分割
文中識別
超像素物質(zhì)分割
330K圖像(> 200K標記)
150萬個物體實例
80個物體類別
91個物質(zhì)類別
每張圖片5個字幕
250,000有關(guān)鍵點的人
大小:?25 GB(壓縮)
記錄數(shù)量:330K圖像,80個物體類別,每幅圖像5個字幕,250,000個有關(guān)鍵點的人
SOTA:Mask R-CNN
ImageNet
ImageNet是依據(jù)WordNet層次結(jié)構(gòu)組織的圖像數(shù)據(jù)集。WordNet包含大約100,000個短語,ImageNet提供了平均大約1000個圖像來說明每個短語。
大小:?150GB
記錄數(shù)量:圖像總數(shù):?1,500,000;每個都有多個邊界框和相應(yīng)的類標簽
SOTA:Aggregated Residual Transformations for Deep Neural Networks
Open Images Dataset
Open Images是一個包含近900萬個圖像URL的數(shù)據(jù)集。這些圖像已經(jīng)用數(shù)千個類別的圖像級標簽邊框進行了注釋。該數(shù)據(jù)集包含9,011,219張圖像的訓(xùn)練集,41,260張圖像的驗證集以及125,436張圖像的測試集。
大小:500 GB(壓縮)
記錄數(shù)量:9,011,219張超過5k標簽的圖像
SOTA:Resnet 101圖像分類模型(在V2數(shù)據(jù)上訓(xùn)練):Model checkpoint,Checkpoint readme,Inference code.
VisualQA
VQA是一個包含有關(guān)圖像的開放式問題的數(shù)據(jù)集。這些問題需要理解是視覺和語言。這個數(shù)據(jù)集有一些有趣的特點:
265,016張圖片(COCO和抽象場景)
每張圖片至少有3個問題(平均5.4個問題)
每個問題10個基于事實答案
每個問題3個似乎合理(但看起來不正確)的答案
自動評估指標
大?。?5 GB(壓縮)
記錄數(shù)量:265,016張圖片,每張圖片至少3個問題,每個問題10個基于事實答案
SOTA:Tips and Tricks for Visual Question Answering: Learnings from the 2017 Challenge
The Street View House Numbers (SVHN)
這是用于開發(fā)物體檢測算法的真實世界圖像數(shù)據(jù)集。這些只需要最少的數(shù)據(jù)預(yù)處理。它與本列表中提到的MNIST數(shù)據(jù)集類似,但擁有更多標簽數(shù)據(jù)(超過600,000個圖像)。這些數(shù)據(jù)是從谷歌街景中查看的房屋號碼中收集的。
大?。?.5 GB
記錄數(shù)量:10個課程中的6,30,420張圖片
SOTA:Distributional Smoothing With Virtual Adversarial Training
CIFAR-10
這是另一個圖像分類的數(shù)據(jù)集。它包含了10個類別的60,000個圖像(每個類在上圖中表示為一行)。總共有50,000個訓(xùn)練圖像和10,000個測試圖像。數(shù)據(jù)集分為6個部分- 5個培訓(xùn)批次和1個測試批次。每批有10,000個圖像。
大?。?70 MB
記錄數(shù)量:10個類別的60,000張圖片
SOT:ShakeDrop regularization
Fashion-MNIST
Fashion-MNIST包含60,000個訓(xùn)練圖像和10,000個測試圖像。它是一個類似MNIST的時尚產(chǎn)品數(shù)據(jù)庫。開發(fā)人員認為MNIST已被過度使用,因此他們將其作為MNIST的直接替代品。每張圖片都以灰度顯示,并與10個類別的標簽相關(guān)聯(lián)。
大小:30 MB
記錄數(shù)量:10個類別的70,000張圖片
SOTA:Random Erasing Data Augmentation
▌自然語言處理
IMDB Reviews
這是一個電影愛好者的夢寐以求的數(shù)據(jù)集。它意味著二元情感分類,并具有比此領(lǐng)域以前的任何數(shù)據(jù)集更多的數(shù)據(jù)。除了訓(xùn)練和測試評估示例之外,還有更多未標記的數(shù)據(jù)可供使用。包括文本和預(yù)處理的詞袋格式。
大?。?0 MB
記錄數(shù)量:25,000個高度差異化的電影評論用于訓(xùn)練,25,000個測試
SOTA:Learning Structured Text Representations
Twenty Newsgroups
顧名思義,該數(shù)據(jù)集包含有關(guān)新聞組的信息。為了選擇這個數(shù)據(jù)集,從20個不同的新聞組中挑選了1000篇新聞文章。這些文章具有一定特征,如主題行,簽名和引用。
大?。?0 MB
記錄數(shù)量:來自20個新聞組的20,000條消息
DOTA:Very Deep Convolutional Networks for Text Classification
Sentiment140
Sentiment140是一個可用于情感分析的數(shù)據(jù)集。一個流行的數(shù)據(jù)集,非常適合開始你的NLP旅程。情緒已經(jīng)從數(shù)據(jù)中預(yù)先移除。最終的數(shù)據(jù)集具有以下6個特征:
推文的極性
推文的ID
推文的日期
問題
推文的用戶名
推文的文本
大?。?0 MB(壓縮)
記錄數(shù)量:160,000條推文
SOTA:Assessing State-of-the-Art Sentiment Models on State-of-the-Art Sentiment Datasets
WordNet
在上面的ImageNet數(shù)據(jù)集中提到,WordNet是一個很大的英文同義詞集。 同義詞集是每個都描述了不同的概念的同義詞組。WordNet的結(jié)構(gòu)使其成為NLP非常有用的工具。
大?。?0 MB
記錄數(shù)量:117,000個同義詞集通過少量“概念關(guān)系”與其他同義詞集相關(guān)聯(lián)。
SOTA:Wordnets: State of the Art and Perspectives
Yelp Reviews
這是Yelp為了學(xué)習(xí)目的而發(fā)布的一個開源數(shù)據(jù)集。它包含了由數(shù)百萬用戶評論,商業(yè)屬性和來自多個大都市地區(qū)的超過20萬張照片。這是一個非常常用的全球NLP挑戰(zhàn)數(shù)據(jù)集。
大?。?.66 GB JSON,2.9 GB SQL和7.5 GB照片(全部壓縮)
記錄數(shù)量:5,200,000條評論,174,000條商業(yè)屬性,20萬張圖片和11個大都市區(qū)
SOTA:Attentive Convolution
The Wikipedia Corpus
這個數(shù)據(jù)集是維基百科全文的集合。它包含來自400多萬篇文章的將近19億字。使得這個成為強大的NLP數(shù)據(jù)集的是你可以通過單詞,短語或段落本身的一部分進行搜索。
大?。?0 MB
記錄數(shù)量:4,400,000篇文章,19億字
SOTA:Breaking The Softmax Bottelneck: A High-Rank RNN language Model
The Blog Authorship Corpus
這個數(shù)據(jù)集包含了從blogger.com收集的數(shù)千名博主的博客帖子。每個博客都作為一個單獨的文件提供。每個博客至少包含200個常用英語單詞。
大?。?00 MB
記錄數(shù)量:681,288個帖子,超過1.4億字
SOTA:Character-level and Multi-channel Convolutional Neural Networks for Large-scale Authorship Attribution
Machine Translation of Various Languages
此數(shù)據(jù)集包含四種歐洲語言的訓(xùn)練數(shù)據(jù)。這里的任務(wù)是改進當(dāng)前的翻譯方法。您可以參加以下任何語言組合:
英語-漢語和漢語-英語
英語-捷克語和捷克語-英語
英語-愛沙尼亞語和愛沙尼亞語-英語
英語-芬蘭語和芬蘭語-英語
英語-德語和德語-英語
英語-哈薩克語和哈薩克語-英語
英文-俄文和俄文-英文
英語-土耳其語和土耳其語-英語
大?。?15 GB
記錄數(shù)量:約30,000,000個句子及其翻譯
SOTA:Attention Is All You Need
▌音頻/語音處理
Free Spoken Digit Dataset
此列表中的另一個被MNIST啟發(fā)而創(chuàng)建的數(shù)據(jù)集!這是為了解決識別音頻樣本中的口頭數(shù)字而創(chuàng)建。這是一個開源數(shù)據(jù)集,所以希望隨著人們繼續(xù)貢獻更多樣本幫助它不斷成長。目前,它包含以下特點:
3個說話者
1500個錄音(每個數(shù)字每個說話者讀50個)
英語發(fā)音
大?。?0 MB
記錄數(shù)量:1500個音頻樣本
SOTA:Raw Waveform-based Audio Classification Using Sample-level CNN Architectures
Free Music Archive (FMA)
FMA是一個音樂分析的數(shù)據(jù)集。數(shù)據(jù)集包括了完整長度和HQ音頻,預(yù)先計算的特征,以及音軌和用戶級元數(shù)據(jù)。它是一個用于評估MIR中的一些任務(wù)的開源數(shù)據(jù)集。下面是數(shù)據(jù)集的csv文件列表以及它們包含的內(nèi)容:
tracks.csv:每首曲目元數(shù)據(jù),如ID,標題,藝術(shù)家,流派,標簽和播放次數(shù),共106,574首曲目
genres.csv:所有163種風(fēng)格的ID與他們的名字和起源(用于推斷流派層次和頂級流派)。
features.csv:用librosa提取的常用特征。
echonest.csv:由Echonest(現(xiàn)在的Spotify)提供的為13,129首音軌的子集的音頻功能。
大小:?1000 GB
記錄數(shù)量:約100,000軌道
SOTA:Learning to Recognize Musical Genre from Audio
Ballroom
該數(shù)據(jù)集包含舞池跳舞音頻文件。以真實音頻格式提供了許多舞蹈風(fēng)格的一些特征摘錄。以下是數(shù)據(jù)集的一些特點:
實例總數(shù):698
持續(xù)時間:約30秒
總持續(xù)時間:約20940秒
大?。?4GB(壓縮)
記錄數(shù)量:約700個音頻樣本
SOTA:A Multi-Model Approach To Beat Tracking Considering Heterogeneous Music Styles
Million Song Dataset
Million Song Dataset是免費的一百萬首當(dāng)代流行音樂曲目的音頻特征和元數(shù)據(jù)集合。其目的是:
鼓勵對擴大到商業(yè)規(guī)模的算法進行研究
為評估研究提供參考數(shù)據(jù)集
作為使用API創(chuàng)建大型數(shù)據(jù)集的捷徑(例如The Echo Nest)
幫助新研究人員在MIR領(lǐng)域開始工作
數(shù)據(jù)集的核心是一百萬首歌曲的特征分析和元數(shù)據(jù)。這個數(shù)據(jù)集不包含任何音頻,只是派生的功能。示例音頻可以通過使用哥倫比亞大學(xué)提供的code從7digital等服務(wù)中獲取。
大小:280 GB
記錄數(shù)量:PS - 它的一百萬首歌曲!
SOTA:Preliminary Study on a Recommender System for the Million Songs Dataset Challenge
LibriSpeech
該數(shù)據(jù)集是大約1000小時的英語演講的大型語料庫。這些數(shù)據(jù)來自LibriVox項目的有聲讀物。它們已被分割并適當(dāng)對齊。如果您正在尋找一個起點,請查看在kaldi-asr.org和語言模型上進行了訓(xùn)練了的已準備好的聲學(xué)模型,這些模型適合在http://www.openslr.org/11/進行評測。
大小:?60 GB
記錄數(shù)量:1000小時的演講
SOTA:Letter-Based Speech Recognition with Gated ConvNets
VoxCeleb
VoxCeleb是一個大規(guī)模演講者識別數(shù)據(jù)集。它包含了來自YouTube視頻的約1,251位知名人士的約10萬個話語。數(shù)據(jù)大部分是性別平衡的(男性占55%)。這些名人橫跨不同的口音,職業(yè)和年齡。開發(fā)和測試集之間沒有重疊。對于獨立和識別哪個超級巨星的音頻來說,這是一個有趣的使用案例。
大?。?50 MB
記錄數(shù)量:1,251位名人的100,000條話語
SOTA:VoxCeleb: a large-scale speaker identification dataset
分析Vidhya實踐問題:為了您的練習(xí),我們還提供實際生活問題和數(shù)據(jù)集讓你可以實際演練。在本節(jié)中,我們列舉了在我們DataHack平臺上的深度學(xué)習(xí)實踐問題。
Twitter Sentiment Analysis
仇恨型演講以種族主義和性別歧視為形式的言論已成為推特上的麻煩事,重要的是將這類推文與其他的分開。在這個實際問題中,我們同時提供正常的和仇恨型推文的推特數(shù)據(jù)。你作為數(shù)據(jù)科學(xué)家的任務(wù)是確定哪些推文是仇恨型推文,哪些不是。
大?。? MB
記錄數(shù)量:31,962條推文
Age Detection of Indian Actors
對于任何深度學(xué)習(xí)愛好者來說,這是一個令人著迷的挑戰(zhàn)。該數(shù)據(jù)集包含數(shù)千個印度演員的圖像,你的任務(wù)是確定他們的年齡。所有圖像都是手動選擇,并從視頻幀中剪切的,這使得尺度,姿勢,表情,照度,年齡,分辨率,遮擋和化妝的高度干擾性。
大小:48 MB(壓縮)
記錄數(shù)量:訓(xùn)練集中的19,906幅圖像和測試集中的6636幅圖像
SOTA:Hands on with Deep Learning – Solution for Age Detection Practice Problem
Urban Sound Classification
這個數(shù)據(jù)集包含超過8000個來自10個類別的城市聲音摘錄。這個實踐問題是為了在向您介紹常見分類方案中的音頻處理。
大?。河?xùn)練集-3 GB(壓縮),測試集- 2 GB(壓縮)
記錄數(shù)量:來自10個類別的8732個城市聲音標注的聲音片段(<= 4s)
如果您知道其他開源數(shù)據(jù)集,可以用來推薦其他人開始他們的深度學(xué)習(xí)/非結(jié)構(gòu)化數(shù)據(jù)集之旅,請隨時把它們推薦給我們并附上應(yīng)該包括這些數(shù)據(jù)集的原因。
如果原因很好,我會把它們列入清單。我們非常歡迎您在評論區(qū)域讓我們知道使用這些數(shù)據(jù)集的經(jīng)驗。最后祝大家學(xué)習(xí)愉快!
-
圖像處理
+關(guān)注
關(guān)注
27文章
1320瀏覽量
57546 -
深度學(xué)習(xí)
+關(guān)注
關(guān)注
73文章
5548瀏覽量
122337 -
自然語言
+關(guān)注
關(guān)注
1文章
291瀏覽量
13574
原文標題:資源 | 25個深度學(xué)習(xí)開源數(shù)據(jù)集
文章出處:【微信號:AI_Thinker,微信公眾號:人工智能頭條】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄

#硬聲創(chuàng)作季 #深度學(xué)習(xí) 深度學(xué)習(xí)基礎(chǔ)-1.2.1 數(shù)據(jù)集及其拆分
計算機視覺/深度學(xué)習(xí)領(lǐng)域常用數(shù)據(jù)集匯總
LSM6DSM示例代碼哪里可以獲得
哪里可以獲得CYW54907+評估板?
哪里可以獲得有關(guān)簽證命令SCPI的手冊
哪里可以獲得ISE幫助的pdf文件
請問我在哪里可以獲得Discovery固件庫?
從哪里可以獲得我的機器的主機ID?
哪里可以獲得近距離通信設(shè)備(SRD)的規(guī)范?
谷歌為何對深度學(xué)習(xí)感興趣?
如何在Hadoop上運行這些深度學(xué)習(xí)工作

評論