一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

對于谷歌應(yīng)用傳統(tǒng)的自動語音識別(ASR)系統(tǒng)的解析

zhKF_jqr_AI ? 2017-12-31 01:22 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

目前,谷歌的各種語音搜索應(yīng)用還在使用傳統(tǒng)的自動語音識別(ASR)系統(tǒng),它包括一個包括聲學(xué)模型(AM )、一個發(fā)音模型(PM)和一個語言模型(LM),它們都是彼此獨立訓(xùn)練的,而且需要研究人員在不同數(shù)據(jù)集上進行手動調(diào)試。例如,當(dāng)聲學(xué)模型采集到一些聲波特征,它會參考上下文中的音素,有時甚至是一些無關(guān)的音素來生成一系列subword單元預(yù)測。之后,發(fā)音模型會在手工設(shè)計的詞典中為預(yù)測音素映射序列,最后再由語言模型根據(jù)序列概率分配單詞。

和聯(lián)合訓(xùn)練所有組件相比,這種對各模型進行獨立訓(xùn)練其實是一種次優(yōu)的選擇,它會使整個過程更復(fù)雜。在過去幾年中,端對端系統(tǒng)開發(fā)越來越受歡迎,它們的思路是把這些獨立的組件組合成一個單一系統(tǒng)共同學(xué)習(xí),但一個不可忽視的事實是,雖然端對端模型在論文中表現(xiàn)出了一定的希望,但沒人真正確定它們比傳統(tǒng)的做法效果更優(yōu)。

為了驗證這一點,近日,谷歌推薦了一篇由Google Brain Team發(fā)表的新論文:State-of-the-art Speech Recognition With Sequence-to-Sequence Models,介紹了一種新的、在性能上超越傳統(tǒng)做法的端對端語音識別模型。論文顯示,相較于現(xiàn)在最先進的語音識別工具,谷歌新模型的字錯誤率(WER)只有5.6%,比前者的6.7%提升了16%。此外,在沒有任何預(yù)測評分的前提下,用于輸出初始字假設(shè)的端對端模型在體量上是傳統(tǒng)工具的十八分之一,因為它不包含獨立的語言模型和發(fā)音模型。

這個新模型的系統(tǒng)建立在Listen-Attend-Spell(LAS)端到端體系結(jié)構(gòu)上,該結(jié)構(gòu)由3部分組成,其中Listen組件的編碼器和標(biāo)準(zhǔn)聲學(xué)模型類似,把時頻語音信號x作為輸入,并用一組神經(jīng)網(wǎng)絡(luò)層將輸入映射為一個高水平的表征henc。Attend接收前者編碼器的輸出,并用henc來學(xué)習(xí)輸入x和預(yù)測subword單元{yn, … y0}之間的對齊。其中每個subword單元通常是字形或詞形。組合,Attend組件將輸出傳輸給Spell組件(解碼器),它類似語言模型,能產(chǎn)生一組預(yù)測字詞的概率分布。

01254K933-0.png

不同于傳統(tǒng)的獨立訓(xùn)練,LAS的所有組件都在一個單一的端到端神經(jīng)網(wǎng)絡(luò)中聯(lián)合訓(xùn)練,這意味著它更簡單方便。此外,由于LAS是一個徹底的神經(jīng)網(wǎng)絡(luò),所以它不需要外部增設(shè)手工組件,例如有窮狀態(tài)轉(zhuǎn)移機、lexicon或TN模型。最后,LAS不需要像傳統(tǒng)模型一樣用單獨系統(tǒng)生成的決策樹或time alignment來做Bootstrap,它可以在給定文本轉(zhuǎn)錄和相對應(yīng)音頻資料的情況下直接訓(xùn)練。

在論文中,谷歌大腦團隊還介紹他們在LAS中引入各類新穎的結(jié)構(gòu)對神經(jīng)網(wǎng)絡(luò)做了調(diào)整,包括改進傳遞給解碼器的attention vector,以及用更長的subword單元對網(wǎng)絡(luò)進行訓(xùn)練(如wordpiece)。他們也用了大量優(yōu)化訓(xùn)練方法,其中就有使用最低錯詞率進行訓(xùn)練。這些創(chuàng)新都是端到端模型較傳統(tǒng)性能提升16%的原因。

這項研究另一個值得興奮的點是多方言和多語言系統(tǒng),這可能開啟一些潛在應(yīng)用,由于它是一個經(jīng)優(yōu)化的單個神經(jīng)網(wǎng)絡(luò),模型的簡單性使它獨具吸引力。在LAS中,研究人員可以將所有方言、語言數(shù)據(jù)整合在一起進行訓(xùn)練,而無需針對各個類別單獨設(shè)置AM、PM和LM。據(jù)論文介紹,經(jīng)測試,谷歌的這個模型在7種英語方言、9種印度語言上表現(xiàn)良好,并超越了對照組的單獨訓(xùn)練模型。

雖然這個數(shù)據(jù)結(jié)果令人興奮,但這暫時還不是一個真正成熟的工作,因為它還不能實時處理語音,而這是它被用于語音搜索的一個重大前提。此外,這些模型生成的數(shù)據(jù)和實際數(shù)據(jù)仍存在不小的差距,它們只學(xué)習(xí)了22000個音頻文本對話,在語料庫數(shù)據(jù)積累上遠比不上傳統(tǒng)方法。當(dāng)面對一些罕見的詞匯時,比如一些人工設(shè)計的專業(yè)名詞、專有名詞,端到端模型還不能正確編寫。因此,為了讓它們能更實用、適用,谷歌大腦的科學(xué)家們未來仍將面臨諸多問題。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6231

    瀏覽量

    108005
  • 語音識別
    +關(guān)注

    關(guān)注

    39

    文章

    1779

    瀏覽量

    114169
  • 語音搜索
    +關(guān)注

    關(guān)注

    0

    文章

    6

    瀏覽量

    7890

原文標(biāo)題:谷歌大腦發(fā)力語音搜索:一個用于語音識別的端到端模型

文章出處:【微信號:jqr_AI,微信公眾號:論智】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    手機語音識別應(yīng)用中DSP該怎么選擇?

      隨著DSP技術(shù)的進步,計算能力更強、功耗更低和體積更小的DSP已經(jīng)出現(xiàn),使3G手機上植入更精確更復(fù)雜的自動語音識別(ASR)功能成為可能。目前,基本
    發(fā)表于 09-02 07:03

    TWEN-ASR ONE 語音識別系列教程(1)——運行第一個語音程序

    文章目錄前言一、TWEN-ASR開發(fā)板介紹二、程序編寫、下載、調(diào)試三、運行測試四、總結(jié)前言????語音識別這個詞,相信大家都不陌生,現(xiàn)在流行的智能音箱基本都有語音
    發(fā)表于 06-16 18:10

    HarmonyOS開發(fā)-語音識別

    1. 在使用語音識別API時,將實現(xiàn)ASR的相關(guān)的類添加至工程。// 提供ASR引擎執(zhí)行時所需要傳入的參數(shù)類import ohos.ai.asr
    發(fā)表于 03-22 09:54

    語音識別技術(shù)原理簡介

    語音識別技術(shù)原理簡介         自動語音識別技術(shù)(Auto
    發(fā)表于 03-06 10:38 ?1.1w次閱讀

    語音識別技術(shù),語音識別技術(shù)是什么意思

    語音識別技術(shù),語音識別技術(shù)是什么意思  語音識別技術(shù),也被稱為
    發(fā)表于 03-06 11:16 ?2974次閱讀

    ASR語音識別技術(shù)的介紹應(yīng)用和優(yōu)勢及實際案例分析

    ASR(Automatic Speech Recognition) 自動語音識別技術(shù)是基于關(guān)鍵詞語列表識別的技術(shù)。每次
    發(fā)表于 10-17 08:00 ?30次下載

    ASR語音技術(shù)的原理以及未來發(fā)展趨勢分析

    自動語音識別(ASR)是一種將口語轉(zhuǎn)換為文本的過程。該技術(shù)正在不斷應(yīng)用于即時通訊應(yīng)用程序、搜索引擎、車載系統(tǒng)和家庭
    發(fā)表于 03-21 10:35 ?4414次閱讀

    LU-ASR01語音識別模塊使用說明

    模塊語音識別LU-ASR01智能控制聲控圖形編程零基開發(fā)板使用說明。
    發(fā)表于 04-13 09:10 ?260次下載

    探索自動語音識別技術(shù)的獨特應(yīng)用

      自動語音識別ASR )正在成為日常生活的一部分,從與數(shù)字助理交互到聽寫文本信息。由于以下方面的最新進展, ASR 研究繼續(xù)取得進展:
    的頭像 發(fā)表于 10-11 09:55 ?1159次閱讀

    解決自動語音識別部署難題

    成功部署自動語音識別ASR )應(yīng)用程序可能是令人沮喪的體驗。例如,考慮到存在許多不同的方言和發(fā)音, ASR
    的頭像 發(fā)表于 10-11 10:56 ?1343次閱讀
    解決<b class='flag-5'>自動</b><b class='flag-5'>語音</b><b class='flag-5'>識別</b>部署難題

    什么是自動語音識別ASR)?如何使用深度學(xué)習(xí)和GPU加速ASR

    ASR 是自然語言中一項頗具挑戰(zhàn)性的任務(wù),它由語音分割、聲學(xué)建模和語言建模等一系列子任務(wù)組成,根據(jù)噪聲和未分割的輸入數(shù)據(jù)形成預(yù)測(標(biāo)簽序列)。
    發(fā)表于 02-28 15:01 ?7805次閱讀
    什么是<b class='flag-5'>自動</b><b class='flag-5'>語音</b><b class='flag-5'>識別</b>(<b class='flag-5'>ASR</b>)?如何使用深度學(xué)習(xí)和GPU加速<b class='flag-5'>ASR</b>

    ASR語音識別技術(shù)應(yīng)用

    語音識別技術(shù)應(yīng)用的分析: 一、ASR語音識別技術(shù)原理 ASR
    的頭像 發(fā)表于 11-18 15:12 ?2045次閱讀

    ASR在智能家居中的應(yīng)用

    隨著科技的飛速發(fā)展,人工智能技術(shù)(AI)已經(jīng)滲透到我們生活的方方面面,其中自動語音識別(Automatic Speech Recognition,簡稱ASR)技術(shù)在智能家居領(lǐng)域的應(yīng)用尤
    的頭像 發(fā)表于 11-18 15:15 ?1216次閱讀

    ASR和機器學(xué)習(xí)的關(guān)系

    自動語音識別ASR)技術(shù)的發(fā)展一直是人工智能領(lǐng)域的一個重要分支,它使得機器能夠理解和處理人類語言。隨著機器學(xué)習(xí)(ML)技術(shù)的迅猛發(fā)展,ASR
    的頭像 發(fā)表于 11-18 15:16 ?770次閱讀

    ASR傳統(tǒng)語音識別的區(qū)別

    ASR(Automatic Speech Recognition,自動語音識別)與傳統(tǒng)語音
    的頭像 發(fā)表于 11-18 15:22 ?1314次閱讀