一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Mozilla基金會發(fā)起的Common Voice項(xiàng)目,發(fā)布新版語音識別數(shù)據(jù)集

電子工程師 ? 來源:lp ? 2019-03-02 09:35 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

3 月 1 日,由 Mozilla 基金會發(fā)起的 Common Voice 項(xiàng)目,發(fā)布新版語音識別數(shù)據(jù)集,包括來自 42000 名貢獻(xiàn)者,超過 1400 小時(shí)的語音樣本數(shù)據(jù),涵蓋包括英語、法語、德語、荷蘭語、漢語在內(nèi)的 18 種語言。

(數(shù)據(jù)集鏈接:https://voice.mozilla.org/zh-CN/datasets)

Common Voice 項(xiàng)目可以集成到由 DeepSpeech,也就是基于 DeepSpeech 語音識別框架的一套語音轉(zhuǎn)文本的開源語音識別引擎。它不僅包括語音片段,還包括對訓(xùn)練語音引擎有用的元數(shù)據(jù),如說話者的年齡、性別和口音,收集這些語音片段需要做大量的工作。目前 DeepSpeech 項(xiàng)目已在GitHub上獲得了 9418 個(gè) Star,1674 個(gè) fork。

(GitHub 傳送門:https://github.com/mozilla/DeepSpeech)

它目前是同類項(xiàng)目中最大的多語言數(shù)據(jù)集之一,Mozilla 聲稱,此次發(fā)布的數(shù)據(jù)集比八個(gè)月前公開發(fā)布的 Common Voice 語料庫要更加龐大,其中包含來自 20,000 名英語志愿者的 500 小時(shí)語音數(shù)據(jù)(400,000 條錄音),而且語料庫還將進(jìn)一步擴(kuò)充。該基金會表示,通過 Common Voice網(wǎng)站和移動應(yīng)用,他們正在積極開展 70 種語言的數(shù)據(jù)收集工作。

2017 年 6 月,Mozilla 宣布推出 Project Common Voice 眾包計(jì)劃,旨在為語音識別應(yīng)用構(gòu)建開源數(shù)據(jù)集。他們邀請來自世界各地的志愿者通過網(wǎng)絡(luò)和移動應(yīng)用貢獻(xiàn)語音記錄的文本片段,當(dāng)然,他們會非常嚴(yán)格地保護(hù)項(xiàng)目貢獻(xiàn)者的隱私。

2017 年 11 月,Mozilla 基金會發(fā)布了第一批 Common Voice 英語數(shù)據(jù)集成果,該數(shù)據(jù)集包括大約 500 個(gè)小時(shí)的語音數(shù)據(jù),以及來自 20,000 個(gè)志愿者貢獻(xiàn)的 400,000 條錄音。2018 年 6 月,Mozilla開始收集法語、德語和威爾士語等 40 多種語種的眾包語音數(shù)據(jù)。

為了簡化流程,Mozilla 本周還推出了一款改進(jìn)的 Common Voice web 工具,其可以對不同的語音剪輯進(jìn)行更改,還增加了用于查看、重新錄制和跳過剪輯的新控件,一個(gè)可以快速切換儀表板的“說話”和“收聽”模式的開關(guān),以及選擇退出語音會話的選項(xiàng)。此外,它正在推出新的配置文件功能,允許用戶跨語言跟蹤他們的語言進(jìn)度和指標(biāo),并添加人口統(tǒng)計(jì)信息。

未來幾個(gè)月里,Mozilla 表示將嘗試不同的方法來增加數(shù)據(jù)收集的數(shù)量,提升數(shù)據(jù)質(zhì)量,并且最終計(jì)劃使用部分錄音數(shù)據(jù)來開發(fā)語音產(chǎn)品。

語音技術(shù)將是一大科技技術(shù)革新,但可惜的是,目前操縱這場革新游戲的只有大型科技公司。

首先,科技巨頭一般都來自科技強(qiáng)國,而用于訓(xùn)練機(jī)器的語音數(shù)據(jù)目前更偏向于英語、中文等一些特定的語言,在多樣性方面,顯然這并不適合全人類。

其次,像亞馬遜、谷歌、蘋果這樣的科技巨頭正在大力投資他們的智能助手,但由此產(chǎn)生的數(shù)據(jù)集并不對外開放,而像學(xué)生、創(chuàng)業(yè)公司和對構(gòu)建語音設(shè)備感興趣的人只能訪問非常有限的數(shù)據(jù)集,而且可能還需要付費(fèi)購買。

基于此,Mozilla 基金會認(rèn)為,沒有足夠的數(shù)據(jù)開放給公眾使用,將會扼殺科技創(chuàng)新,開放語音數(shù)據(jù)集則可以讓更多人參與進(jìn)來,讓任何人都可以自由地使用該數(shù)據(jù)集,將語音技術(shù)嵌入到各種應(yīng)用和服務(wù)中。這類似于 OpenStreetMap這樣的開放眾包項(xiàng)目,該項(xiàng)目為開發(fā)人員提供開放且可自由使用的世界地圖。

在新的數(shù)據(jù)集發(fā)布后,外國網(wǎng)友們也對此進(jìn)行了評價(jià):

看到開放數(shù)據(jù)領(lǐng)域的創(chuàng)新真是太好了。最近有許多斷言認(rèn)為,質(zhì)量更高的 ML 數(shù)據(jù)將要比 ML 算法更重要,這么說是對的,特別是在語音識別等領(lǐng)域。然而,要趕上科技巨頭還有很長的路要走。因?yàn)樵?15 年前,就有公司每年會處理 100 萬分鐘的標(biāo)簽語音數(shù)據(jù)。

除非我們在這方面進(jìn)行投資,否則老牌企業(yè)和新進(jìn)入這個(gè)市場的企業(yè)之間的數(shù)據(jù)差距將繼續(xù)擴(kuò)大。

另有網(wǎng)友花了時(shí)間驗(yàn)證了一些語音,他在評論中表達(dá)了質(zhì)疑稱:

至少在我能聽出來的范圍內(nèi),我沒有聽到任何句子說錯(cuò)了。不過,我確實(shí)遇到了大量非常糟糕的樣本,以至于有些難以理解。比如口音重、有背景噪音或者非常安靜,而且他覺得一些“機(jī)械的”樣本是通過文本轉(zhuǎn)語音軟件生成的。所以 Common Voice 能提供優(yōu)質(zhì)數(shù)據(jù)嗎?

還有網(wǎng)友拿開源數(shù)據(jù)集 LibriSpeech 做了對比:

ASR 訓(xùn)練的有聲讀物是絕對不錯(cuò)的。事實(shí)上,在 Common Voice 之前,最大的 ASR 公開訓(xùn)練數(shù)據(jù)集是 LibriSpeech (http://www.openslr.org/12/)。同樣值得注意的是,Mozilla 的 DeepSpeech 模型的第一個(gè)版本使用 LibriSpeech 進(jìn)行了訓(xùn)練和測試。但是正如其他人提到的由于一些數(shù)據(jù)集不夠好,由 Common Voice 的數(shù)據(jù)集訓(xùn)練的有聲讀物存在一些瑕疵。

但是 Common Voice 的目標(biāo)不是取代 LibreSpeech 或其他開放數(shù)據(jù)集(如 TED 演講)作為訓(xùn)練數(shù)據(jù)集,而是它們的有益補(bǔ)充。

總之,相較于目前已開源的其他語音數(shù)據(jù)集類型單一,數(shù)據(jù)量不足,數(shù)據(jù)雜亂的情況,雖然而 Common Voice 的數(shù)據(jù)集有不足,但在綜合多樣性、豐富性和質(zhì)量方面都遙遙領(lǐng)先。它有望被全世界更大范圍內(nèi)的開發(fā)者們所關(guān)注并受益,也將為語音技術(shù)的發(fā)展帶來不可估量的價(jià)值。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 語音識別
    +關(guān)注

    關(guān)注

    39

    文章

    1782

    瀏覽量

    114253
  • 語音技術(shù)
    +關(guān)注

    關(guān)注

    2

    文章

    226

    瀏覽量

    21528
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1224

    瀏覽量

    25459

原文標(biāo)題:1400小時(shí)開源語音數(shù)據(jù)集,你想要都在這兒

文章出處:【微信號:rgznai100,微信公眾號:rgznai100】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    樹莓派基金會發(fā)布桌面操作系統(tǒng) PIXEL OS

    “YES”,樹莓派基金會發(fā)布了該操作系統(tǒng)的 x86 體驗(yàn)版。這個(gè)操作系統(tǒng)對硬件的需求很低,Upton 說 PIXEL “將運(yùn)行在像我的 ThinkPad X40 這樣的老機(jī)器上,它只要 512MB
    發(fā)表于 12-31 10:58

    國內(nèi)唯一開源基金會“開放原子開源基金會“正式成立!

    日。 開放原子開源基金會是一個(gè)致力于開源產(chǎn)業(yè)的全球性非營利公益機(jī)構(gòu),業(yè)務(wù)范圍包括開源軟件、開源硬件、開源芯片與開源內(nèi)容等,為各類開源項(xiàng)目提供中立的知識產(chǎn)權(quán)托管服務(wù),以及戰(zhàn)略咨詢、法務(wù)咨詢、項(xiàng)目運(yùn)營
    發(fā)表于 09-10 17:24

    開放原子開源基金會聯(lián)合發(fā)起“openDACS開源電路與系統(tǒng)設(shè)計(jì)自動化”開源項(xiàng)目

    10 月 16 日,由中國計(jì)算機(jī)學(xué)會集成電路設(shè)計(jì)專業(yè)組、中國計(jì)算機(jī)學(xué)會開源發(fā)展委員會、開放原子開源基金會聯(lián)合發(fā)起,開放原子開源基金會、中科院計(jì)算所、中科院微電子所、北京大學(xué)、復(fù)旦大學(xué)、武漢理工大學(xué)等
    發(fā)表于 06-24 15:17

    LabVIEW在OPC中使用基金會現(xiàn)場總線

    LabVIEW在OPC中使用基金會現(xiàn)場總線 本文討論了如何使用開放的OPC(用于過程控制的OLE)接口訪問基金會現(xiàn)場總線網(wǎng)絡(luò)和設(shè)備。 NI-FBUS通信管理器隨附了一個(gè)OPC數(shù)據(jù)訪問服務(wù)器
    發(fā)表于 11-10 20:26

    Mozilla使用開源Common Voice語音識別數(shù)據(jù)進(jìn)行多語言操作

    Mozilla 宣布它正在使其眾包項(xiàng)目 Common Voice 支持更多語言。Common Voice
    的頭像 發(fā)表于 06-12 11:18 ?4961次閱讀

    OpenInfra發(fā)起“定向基金”計(jì)劃,為開源項(xiàng)目建立可持續(xù)社區(qū)

    OpenInfra基金會正式宣布發(fā)起“定向基金”計(jì)劃,為特定項(xiàng)目提供定向資助,采用“開放型商業(yè)模式”支持組織/機(jī)構(gòu)圍繞特定開源基礎(chǔ)設(shè)施項(xiàng)目
    的頭像 發(fā)表于 06-07 16:37 ?1288次閱讀

    高質(zhì)量手勢識別數(shù)據(jù)讓手勢識別算法更準(zhǔn)確

    手勢識別數(shù)據(jù)是指用于測試、訓(xùn)練和開發(fā)手勢識別算法的數(shù)據(jù)。隨著手勢識別技術(shù)的不斷發(fā)展,越來越多
    的頭像 發(fā)表于 04-14 17:31 ?1649次閱讀

    人臉識別數(shù)據(jù)應(yīng)用和研究

    人臉識別數(shù)據(jù)是指包含大量人臉圖像和相應(yīng)的文本描述的數(shù)據(jù)。這些數(shù)據(jù)可以用于訓(xùn)練和測試人臉
    的頭像 發(fā)表于 04-21 16:19 ?1467次閱讀

    車內(nèi)語音識別數(shù)據(jù)是驅(qū)動智能出行的新動力

    隨著人們對智能化出行的需求不斷增長,車內(nèi)語音識別技術(shù)成為了汽車領(lǐng)域的重要?jiǎng)?chuàng)新。而這項(xiàng)技術(shù)的發(fā)展離不開車內(nèi)語音識別數(shù)據(jù)的支持,它為智能車輛提供了更加便捷、智能的人機(jī)交互體驗(yàn)。 車內(nèi)
    的頭像 發(fā)表于 07-09 00:46 ?737次閱讀

    車內(nèi)語音識別數(shù)據(jù):駕駛體驗(yàn)升級與智能出行的未來

    車內(nèi)語音識別數(shù)據(jù)是指在汽車內(nèi)部通過語音識別技術(shù)對駕駛員和乘客的語音指令進(jìn)行處理和響應(yīng)的數(shù)據(jù)。隨著
    的頭像 發(fā)表于 11-08 17:01 ?683次閱讀

    車載語音識別數(shù)據(jù)的應(yīng)用與挑戰(zhàn)

    隨著人工智能技術(shù)的迅猛發(fā)展,車載語音識別數(shù)據(jù)成為汽車科技領(lǐng)域的一項(xiàng)重要資源。車載語音識別技術(shù)將語音信號轉(zhuǎn)化為可操作的指令,使駕駛員能夠在駕駛
    的頭像 發(fā)表于 08-28 23:00 ?791次閱讀

    車載語音識別數(shù)據(jù)的技術(shù)進(jìn)展與前景

    近年來,隨著人工智能和語音識別技術(shù)的飛速發(fā)展,車載語音識別數(shù)據(jù)的應(yīng)用前景愈加廣闊。車載語音識別
    的頭像 發(fā)表于 08-28 17:15 ?810次閱讀

    車載語音識別數(shù)據(jù)的社會影響與未來展望

    隨著車載語音識別數(shù)據(jù)的技術(shù)不斷進(jìn)步,其社會影響也變得愈發(fā)顯著。車載語音識別技術(shù)的普及不僅將改變駕駛員與車輛之間的互動方式,還將深刻影響交通安全、用戶體驗(yàn)以及出行方式。
    的頭像 發(fā)表于 08-28 16:55 ?716次閱讀

    車內(nèi)語音識別數(shù)據(jù)在智能駕駛中的應(yīng)用與挑戰(zhàn)

    一、引言 隨著智能駕駛技術(shù)的不斷發(fā)展,車內(nèi)語音識別數(shù)據(jù)在智能駕駛中的應(yīng)用越來越廣泛。車內(nèi)語音識別技術(shù)為駕駛員提供了更加便捷和安全的駕駛體驗(yàn),同時(shí)也為智能駕駛系統(tǒng)的智能化和個(gè)性化提供了有
    的頭像 發(fā)表于 01-26 18:14 ?1451次閱讀

    車內(nèi)語音識別數(shù)據(jù)在智能駕駛中的價(jià)值與應(yīng)用

    車內(nèi)語音識別數(shù)據(jù)在智能駕駛中的價(jià)值與應(yīng)用 一、引言 隨著智能駕駛技術(shù)的不斷發(fā)展,車內(nèi)語音識別數(shù)據(jù)在智能駕駛中的應(yīng)用越來越廣泛。車內(nèi)語音
    的頭像 發(fā)表于 02-19 11:47 ?952次閱讀