一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

首個基于深度學(xué)習(xí)的端到端在線手寫數(shù)學(xué)公式識別模型

倩倩 ? 來源:lq ? 作者:SandaG ? 2019-09-20 15:35 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

本文簡要介紹 2018 年 5 月被 TMM 錄用論文“ Track,Attend and Parse (TAP): An End-to-end Framework for Online Handwritten Mathematical Expression Recognition” 的主要工作 。該論文是 2017 年發(fā)表在 ICDAR 上的文章 [1] 的升級版,主要解決了在線手寫數(shù)學(xué)公式的識別問題。

該論文中介紹的方法獲得了國際最大在線手寫數(shù)學(xué)公式比賽 CROHME2019 的冠軍,且是在未使用額外數(shù)據(jù)的情況下超過了有大量額外數(shù)據(jù)的國際企業(yè)參賽隊伍,如 MyScript , Wiris , MathType 等,突出了該算法較傳統(tǒng)數(shù)學(xué)公式識別算法的優(yōu)勢。

一、研究背景

手寫數(shù)學(xué)公式識別較傳統(tǒng) OCR 問題而言,是一個更復(fù)雜的二維手寫識別問題,其內(nèi)部復(fù)雜的二維空間結(jié)構(gòu)使得其很難被解析,傳統(tǒng)方法的識別效果不佳。隨著深度學(xué)習(xí)在各領(lǐng)域的成功應(yīng)用,文章 [2] [3] 首次提出了基于深度學(xué)習(xí)的端到端離線數(shù)學(xué)公式算法,并在公開數(shù)據(jù)集上較傳統(tǒng)方法獲得了顯著提升,開辟了全新的數(shù)學(xué)公式識別框架。然而在線手寫數(shù)學(xué)公式識別框架還未被提出,論文 TAP 則是首個基于深度學(xué)習(xí)的端到端在線手寫數(shù)學(xué)公式識別模型,且針對數(shù)學(xué)公式識別的任務(wù)特性提出了多種優(yōu)化。

二、TAP原理簡述

Fig.1. Overall archi tecture

Fig 1 是 TAP 的整體結(jié)構(gòu)。 TAP 遵循文章 [2] [3] 中的做法,將數(shù)學(xué)公式的樹結(jié)構(gòu)識別問題轉(zhuǎn)換成了數(shù)學(xué)公式 LaTeX 字符串識別問題。這一思路的轉(zhuǎn)換簡化了數(shù)學(xué)公式識別問題,使端到端的識別成為了可能。 TAP 的基本框架為基于注意力機制的編解碼模型,也稱 Encoder-Decoder 模型 [4] ,其將輸入的軌跡點序列通過 Encoder 編碼得到高維特征表達,依靠 Attention 機制找出高維特征中的關(guān)鍵部分以用于解碼出當(dāng)前時刻的 LaTeX 字符,直至解碼結(jié)束。

TAP 延續(xù)了會議文章 [1] 中的 Encoder 框架,在 Attention 機制上針對在線手寫公式識別提出了 Spatial Attention, Temporal Attention, Attention Guider 用于改善 Attention 的對齊以及 Decoder 的解碼能力。文章中還利用了在線與離線兩個模態(tài)之間的互補性進一步提升了手寫識別性能。

Fig.2. Architecture of the hybridattention model

Fig 2 是 TAP 所采用的H ybrid Attention 機制,除了常用的S patial Attention 外,還采用了T emporal Attention 機制。其中,S patial Attention 利用了A ttention 的歷史信息以解決數(shù)學(xué)公式中多個同樣數(shù)學(xué)字符出現(xiàn)時的對齊混淆問題。

而T emporal Attention 用于處理 LaTeX 中的結(jié)構(gòu)字符的特殊對齊。因為在 LaTeX 的語法規(guī)則中,為了重現(xiàn)數(shù)學(xué)公式語言里的二維空間結(jié)構(gòu),需要額外有一些特殊的結(jié)構(gòu)字符來形成語法,而這些特殊的結(jié)構(gòu)字符在輸入的數(shù)學(xué)公式中不存在,因而S patial Attention 無法完成對齊,此時則需要T emporal Attention 來補足這個不存在的對齊空缺,既能不干擾S patial Attention 的學(xué)習(xí),又能提高D ecoder 的解碼能力,進一步提升性能。

Fig.3. Illustration of the attention guider

此外, TAP 還采用了A ttention Guider 來強化S patial Attention 的學(xué)習(xí),從 Fig 3 中可以看出,在使用了A ttention Guider 來引導(dǎo)S patial Attention 的學(xué)習(xí)后,S patial Attention 的對齊效果顯著提升,十分精確,并且效果也反映到了最終的識別性能上。

三、主要實驗結(jié)果及可視化效

TABLE 1. The recognition results on CROHME2014.

TABLE 2. The recognition results on CROHME2016.

由 TABLE 1 、 TABLE 2 來看,文章所提方案在 CROHME2014 和 CROHME2016 公開數(shù)據(jù)集上取得了 state-of-the-art 的結(jié)果,且較傳統(tǒng)方法有巨大的提升,驗證了該方法的有效性,且 TAP 展示的結(jié)果相對于會議版本也有了進一步的提升,體現(xiàn)了H ybrid Attention 在糾正對齊和提升性能處起到了關(guān)鍵作用。

Fig.4. Visualization of temporal attention

Fig.5. Visualization of hybrid attention

Fig.6. Example of complementarity between online and offline modality

Fig 4 是對于T emporal Attention 的可視化,可見T emporal Attention 能夠很正確的幫助 Spatial Attention 區(qū)分結(jié)構(gòu)字符和實體字符。 Fig 5 是對 Hybrid Attention 整體在一個手寫數(shù)學(xué)公式實例上的可視化。 Fig 6 列出了一個手寫數(shù)學(xué)公式在線和離線模態(tài)互補性的實例,由于存在倒筆現(xiàn)象,單純的在線模型無法正確識別該例子,而通過離線模型的融合輔助最終使得這個公式例子被正確識別(由于符號定義過多,更詳細(xì)的內(nèi)容請參考原文,鏈接附后)。

四、總結(jié)及討論

1. TAP-ICDAR 版首次提出了基于深度學(xué)習(xí)的端到端在線手寫數(shù)學(xué)公式識別模型,將樹形結(jié)構(gòu)識別問題巧妙轉(zhuǎn)換成了 LaTe X 字符串識別問題,成功突破了傳統(tǒng)方法在該問題上的性能瓶頸, 開辟了全新的在線數(shù)學(xué)公式識別框架。

2. TAP-TMM 相比 TAP-ICDAR 而言, 進一步提出了 Hybrid Attention ,不僅提高了 Attention 的對齊準(zhǔn)確度,也針對性地處理了 LaTeX 中結(jié)構(gòu)字符的對齊和生成,且效果最終都很好地反映在了最終的識別性能上。此外,通過融合離線模態(tài)的全局特性,進一步提升了在線手寫數(shù)學(xué)公式的識別率。

3. TAP 中匯報出來的在 CROHME2014 及 CROHME2016 上的識別率,至今仍是最好的公開結(jié)果,相關(guān)算法也在 CROHME2019 競賽上獲得了第一名,并且在沒有使用額外數(shù)據(jù)的情況便超越了其他使用大量額外數(shù)據(jù)的企業(yè)隊伍 。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4710

    瀏覽量

    95392
  • 識別模型
    +關(guān)注

    關(guān)注

    0

    文章

    5

    瀏覽量

    6825
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5561

    瀏覽量

    122794
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    為什么自動駕駛模型有黑盒特性?

    [首發(fā)于智駕最前沿微信公眾號]隨著自動駕駛技術(shù)落地,(End-to-End)大模型也成為行業(yè)研究與應(yīng)用的熱門方向。相較于傳統(tǒng)自動駕駛系統(tǒng)中的模塊化結(jié)構(gòu),
    的頭像 發(fā)表于 07-04 16:50 ?218次閱讀
    為什么自動駕駛<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>大<b class='flag-5'>模型</b>有黑盒特性?

    一文帶你厘清自動駕駛架構(gòu)差異

    [首發(fā)于智駕最前沿微信公眾號]隨著自動駕駛技術(shù)飛速發(fā)展,智能駕駛系統(tǒng)的設(shè)計思路也經(jīng)歷了從傳統(tǒng)模塊化架構(gòu)模型轉(zhuǎn)變。傳統(tǒng)模塊化架構(gòu)將感
    的頭像 發(fā)表于 05-08 09:07 ?294次閱讀
    一文帶你厘清自動駕駛<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>架構(gòu)差異

    自動駕駛中基于規(guī)則的決策和模型有何區(qū)別?

    在自動駕駛架構(gòu)的選擇上,也經(jīng)歷了從感知、決策控制、執(zhí)行的三段式架構(gòu)到現(xiàn)在火熱的模型,尤其是在2024年特斯拉推出FSD V12后,各車企更是陸續(xù)推出自家的
    的頭像 發(fā)表于 04-13 09:38 ?2911次閱讀
    自動駕駛中基于規(guī)則的決策和<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>大<b class='flag-5'>模型</b>有何區(qū)別?

    靈初智能發(fā)布具身模型Psi R0,實現(xiàn)復(fù)雜操作與泛化能力

    近日,靈初智能在人工智能領(lǐng)域取得了重大突破,成功發(fā)布了首個基于強化學(xué)習(xí)(RL)的具身模型
    的頭像 發(fā)表于 12-31 15:31 ?658次閱讀

    階躍星辰發(fā)布國內(nèi)首個千億參數(shù)語音大模型

    近日,階躍星辰在官方公眾號上宣布了一項重大突破——推出Step-1o千億參數(shù)語音大模型。該模型被譽為“國內(nèi)
    的頭像 發(fā)表于 12-17 13:43 ?751次閱讀

    黑芝麻智能算法參考模型公布

    黑芝麻智能計劃推出支持華山及武當(dāng)系列芯片的算法參考方案。該方案采用One Model架構(gòu),并在決策規(guī)劃單元引入了VLM視覺語言大模型和PRR行車規(guī)則的概率化表征子模塊,進一步提升
    的頭像 發(fā)表于 12-03 12:30 ?934次閱讀
    黑芝麻智能<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>算法參考<b class='flag-5'>模型</b>公布

    連接視覺語言大模型自動駕駛

    自動駕駛在大規(guī)模駕駛數(shù)據(jù)上訓(xùn)練,展現(xiàn)出很強的決策規(guī)劃能力,但是面對復(fù)雜罕見的駕駛場景,依然存在局限性,這是因為
    的頭像 發(fā)表于 11-07 15:15 ?708次閱讀
    連接視覺語言大<b class='flag-5'>模型</b>與<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>自動駕駛

    智己汽車“”智駕方案推出,老司機真的會被取代嗎?

    隨著智能駕駛技術(shù)的發(fā)展,行業(yè)已經(jīng)從早期基于簡單規(guī)則和模塊化邏輯的自動駕駛,逐步邁向依托深度學(xué)習(xí)的高復(fù)雜度智能駕駛解決方案,各車企也緊跟潮流,先后宣布了自己的
    的頭像 發(fā)表于 10-30 09:47 ?834次閱讀
    智己汽車“<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>”智駕方案推出,老司機真的會被取代嗎?

    AI大模型深度學(xué)習(xí)的關(guān)系

    人類的學(xué)習(xí)過程,實現(xiàn)對復(fù)雜數(shù)據(jù)的學(xué)習(xí)識別。AI大模型則是指模型的參數(shù)數(shù)量巨大,需要龐大的計算資源來進行訓(xùn)練和推理。
    的頭像 發(fā)表于 10-23 15:25 ?2891次閱讀

    InfiniBand網(wǎng)絡(luò)解決LLM訓(xùn)練瓶頸

    的,這需要大量的計算資源和高速數(shù)據(jù)傳輸網(wǎng)絡(luò)。InfiniBand(IB)網(wǎng)絡(luò)作為高性能計算和AI模型訓(xùn)練的理想選擇,發(fā)揮著重要作用。在本文中,我們將深入探討大型語言
    的頭像 發(fā)表于 10-23 11:26 ?2187次閱讀
    <b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>InfiniBand網(wǎng)絡(luò)解決LLM訓(xùn)練瓶頸

    Mobileye自動駕駛解決方案的深度解析

    強大的技術(shù)優(yōu)勢。 Mobileye的解決方案概述 1.1 什么是自動駕駛?
    的頭像 發(fā)表于 10-17 09:35 ?837次閱讀
    Mobileye<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>自動駕駛解決方案的<b class='flag-5'>深度</b>解析

    智駕進程發(fā)力?小鵬、蔚來模型上車

    轉(zhuǎn)型的關(guān)鍵時期,而智能駕駛技術(shù)的發(fā)展被視為這場變革的核心動力。作為自動駕駛的支撐技術(shù)之一,模型憑借其感知、規(guī)劃和控制的一體化能力,大幅提升了智能駕駛的效率和穩(wěn)定性。不同于傳統(tǒng)的
    的頭像 發(fā)表于 09-26 09:19 ?647次閱讀
    智駕進程發(fā)力?小鵬、蔚來<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b><b class='flag-5'>模型</b>上車

    測試用例怎么寫

    編寫測試用例是確保軟件系統(tǒng)從頭到尾能夠正常工作的關(guān)鍵步驟。以下是一個詳細(xì)的指南,介紹如何編寫
    的頭像 發(fā)表于 09-20 10:29 ?974次閱讀

    深度識別人臉識別在任務(wù)中為什么有很強大的建模能力

    通過大量數(shù)據(jù)進行訓(xùn)練,能夠自動學(xué)習(xí)人臉的特征表示,而不需要人為設(shè)計特征提取算法。 多層神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu) :深度學(xué)習(xí)模型通常包含多層神經(jīng)網(wǎng)絡(luò),這
    的頭像 發(fā)表于 09-10 14:53 ?837次閱讀

    實現(xiàn)自動駕駛,唯有?

    ,去年行業(yè)主流方案還是輕高精地圖城區(qū)智駕,今年大家的目標(biāo)都瞄到了(End-to-End, E2E)。
    的頭像 發(fā)表于 08-12 09:14 ?1520次閱讀
    實現(xiàn)自動駕駛,唯有<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>?