一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

自然語言處理頂會NAACL近日公布了本屆會議的最佳論文,谷歌BERT論文獲得最佳長論文

DPVg_AI_era ? 來源:lp ? 2019-04-19 11:35 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

自然語言處理頂會NAACL近日公布了本屆會議的最佳論文,谷歌BERT論文獲得最佳長論文,可謂名至實(shí)歸。

自然語言處理四大頂會之一NAACL2019將于6月2日-7日在美國明尼阿波利斯市舉行。

據(jù)官方統(tǒng)計(jì),NAACL2019共收到1955篇論文,接收論文424篇,錄取率僅為22.6%。其中長論文投稿1198篇,短論文757篇。

今天,大會揭曉了本屆會議的最佳論文獎項(xiàng),包括最佳專題論文、最佳可解釋NLP論文、最佳長論文、最佳短論文和最佳資源論文。

其中,谷歌BERT論文獲得最佳長論文獎項(xiàng),可謂名至實(shí)歸。

最佳長論文:谷歌BERT模型

最佳長論文(Best Long Paper)

BERT:PretrainingofDeepBidirectionalTransformersforLanguageUnderstanding

JacobDevlin,Ming-WeiChang,KentonLeeandKristinaToutanova

https://arxiv.org/abs/1810.04805

谷歌AI團(tuán)隊(duì)在去年10月發(fā)布的BERT模型,在機(jī)器閱讀理解頂級水平測試SQuAD1.1中表現(xiàn)出驚人的成績:全部兩個(gè)衡量指標(biāo)上全面超越人類!并且還在11種不同NLP測試中創(chuàng)出最佳成績,包括將GLUE基準(zhǔn)推至80.4%(絕對改進(jìn)7.6%),MultiNLI準(zhǔn)確度達(dá)到86.7%(絕對改進(jìn)率5.6%)等。

自BERT模型發(fā)布以來,許多基于BERT的改進(jìn)模型不斷在各種NLP任務(wù)刷新成績。毫不夸張地說,BERT模型開啟了NLP的新時(shí)代!

首先來看下谷歌AI團(tuán)隊(duì)做的這篇論文。

BERT的新語言表示模型,它代表Transformer的雙向編碼器表示。與最近的其他語言表示模型不同,BERT旨在通過聯(lián)合調(diào)節(jié)所有層中的上下文來預(yù)先訓(xùn)練深度雙向表示。因此,預(yù)訓(xùn)練的BERT表示可以通過一個(gè)額外的輸出層進(jìn)行微調(diào),適用于廣泛任務(wù)的最先進(jìn)模型的構(gòu)建,比如問答任務(wù)和語言推理,無需針對具體任務(wù)做大幅架構(gòu)修改。

論文作者認(rèn)為現(xiàn)有的技術(shù)嚴(yán)重制約了預(yù)訓(xùn)練表示的能力。其主要局限在于標(biāo)準(zhǔn)語言模型是單向的,這使得在模型的預(yù)訓(xùn)練中可以使用的架構(gòu)類型很有限。

在論文中,作者通過提出BERT:即Transformer的雙向編碼表示來改進(jìn)基于架構(gòu)微調(diào)的方法。

BERT提出一種新的預(yù)訓(xùn)練目標(biāo):遮蔽語言模型(maskedlanguagemodel,MLM),來克服上文提到的單向性局限。MLM的靈感來自Cloze任務(wù)(Taylor,1953)。MLM隨機(jī)遮蔽模型輸入中的一些token,目標(biāo)在于僅基于遮蔽詞的語境來預(yù)測其原始詞匯id。

與從左到右的語言模型預(yù)訓(xùn)練不同,MLM目標(biāo)允許表征融合左右兩側(cè)的語境,從而預(yù)訓(xùn)練一個(gè)深度雙向Transformer。除了遮蔽語言模型之外,本文作者還引入了一個(gè)“下一句預(yù)測”(nextsentenceprediction)任務(wù),可以和MLM共同預(yù)訓(xùn)練文本對的表示。

預(yù)訓(xùn)練模型架構(gòu)的差異。BERT使用雙向Transformer。OpenAIGPT使用從左到右的Transformer。ELMo使用經(jīng)過獨(dú)立訓(xùn)練的從左到右和從右到左LSTM的串聯(lián)來生成下游任務(wù)的特征。三個(gè)模型中,只有BERT表示在所有層中共同依賴于左右上下文。

參考閱讀:

NLP歷史突破!谷歌BERT模型狂破11項(xiàng)紀(jì)錄,全面超越人類!

最佳專題論文:減輕機(jī)器學(xué)習(xí)系統(tǒng)的偏見

最佳專題論文(Best Thematic Paper)

What’sinaName?ReducingBiasinBiosWithoutAccesstoProtectedAttributes

AlexeyRomanov,MariaDeArteaga,HannaWallach,JenniferChayes,ChristianBorgs,AlexandraChouldechova,SahinGeyik,KrishnaramKenthapadi,AnnaRumshiskyandAdamKalai

https://128.84.21.199/abs/1904.05233

越來越多的研究提出了減輕機(jī)器學(xué)習(xí)系統(tǒng)偏見的方法。這些方法通常依賴于對受保護(hù)屬性(如種族、性別或年齡)的可用性。

然而,這提出了兩個(gè)重要的挑戰(zhàn):

(1)受保護(hù)的屬性可能不可用,或者使用它們可能不合法;

(2)通常需要同時(shí)考慮多個(gè)受保護(hù)的屬性及其交集。

在減輕職業(yè)分類偏見的背景下,我們提出了一種方法,用于阻隔個(gè)人真實(shí)職業(yè)的預(yù)測概率與他們名字的單詞嵌入之間的相關(guān)性。

這種方法利用了詞嵌入中編碼的社會偏見,從而無需訪問受保護(hù)屬性。最重要的是,這種方法只要求在訓(xùn)練時(shí)訪問個(gè)人姓名,而不是在部署時(shí)。

我們使用了一個(gè)大規(guī)模的在線傳記數(shù)據(jù)集來評估我們提出的方法的兩種變體。我們發(fā)現(xiàn),這兩種變體同時(shí)減少了種族和性別偏見,而分類器的總體真實(shí)陽性率幾乎沒有降低。

最佳可解釋NLP論文:用量子物理的數(shù)學(xué)框架建模人類語言

最佳可解釋NLP論文 (Best Explainable NLP Paper)

CNM:AnInterpretableComplex-valuedNetworkforMatching

QiuchiLi,BenyouWangandMassimoMelucci

https://128.84.21.199/abs/1904.05298

本文試圖用量子物理的數(shù)學(xué)框架對人類語言進(jìn)行建模。

這個(gè)框架利用了量子物理中精心設(shè)計(jì)的數(shù)學(xué)公式,將不同的語言單元統(tǒng)一在一個(gè)復(fù)值向量空間中,例如,將單詞作為量子態(tài)的粒子,句子作為混合系統(tǒng)。我們構(gòu)建了一個(gè)復(fù)值網(wǎng)絡(luò)來實(shí)現(xiàn)該框架的語義匹配。

由于具有良好約束的復(fù)值組件,網(wǎng)絡(luò)允許對顯式物理意義進(jìn)行解釋。所提出的復(fù)值匹配網(wǎng)絡(luò)(complex-valuednetworkformatching,CNM)在兩個(gè)基準(zhǔn)問題回答(QA)數(shù)據(jù)集上具有與強(qiáng)大的CNN和RNN基線相當(dāng)?shù)男阅堋?/p>

最佳短論文:視覺模態(tài)對機(jī)器翻譯的作用

最佳短論文(Best Short Paper)

Probing the Need for Visual Context in Multimodal Machine Translation

OzanCaglayan,PranavaMadhyastha,LuciaSpeciaandLo?cBarrault

https://arxiv.org/abs/1903.08678

目前關(guān)于多模態(tài)機(jī)器翻譯(MMT)的研究表明,視覺模態(tài)要么是不必要的,要么僅僅是有幫助的。

我們假設(shè)這是在任務(wù)的惟一可用數(shù)據(jù)集(Multi30K)中使用的非常簡單、簡短和重復(fù)的語句的結(jié)果,其中源文本被呈現(xiàn)為上下文。

然而,在一般情況下,我們認(rèn)為可以將視覺信息和文本信息結(jié)合起來進(jìn)行實(shí)際的翻譯。

在本文中,我們通過系統(tǒng)的分析探討了視覺模態(tài)對最先進(jìn)的MMT模型的貢獻(xiàn)。我們的結(jié)果表明,在有限的文本上下文中,模型能夠利用視覺輸入生成更好的翻譯。這與當(dāng)前的觀點(diǎn)相矛盾,即要么是因?yàn)閳D像特征的質(zhì)量,要么是因?yàn)樗鼈兗傻侥P椭械姆绞?,MMT模型忽視了視覺模態(tài)。

最佳資源論文:常識性問答的新數(shù)據(jù)集

最佳資源論文(Best Resource Paper)

CommonsenseQA:AQuestionAnsweringChallengeTargetingCommonsenseKnowledge

AlonTalmor,JonathanHerzig,NicholasLourieandJonathanBerant

https://arxiv.org/abs/1811.00937

在回答一個(gè)問題時(shí),除了特定的上下文外,人們往往會利用他們豐富的世界知識。

最近的工作主要集中在回答一些有關(guān)文件或背景的問題,很少需要一般常識背景。

為了研究基于先驗(yàn)知識的問答任務(wù),我們提出了CommonsenseQA:一個(gè)具有挑戰(zhàn)性的用于常識性問答的新數(shù)據(jù)集。

為了獲取超出關(guān)聯(lián)之外的常識,我們從ConceptNet(Speeretal.,2017)中提取了與單個(gè)源概念具有相同語義關(guān)系的多個(gè)目標(biāo)概念。參與者被要求撰寫多項(xiàng)選擇題,其中要提到源概念,并依次區(qū)分每個(gè)目標(biāo)概念。這鼓勵(lì)參與人員創(chuàng)建具有復(fù)雜語義的問題,這些問題通常需要先驗(yàn)知識。

我們通過這個(gè)過程創(chuàng)建了12247個(gè)問題,并用大量強(qiáng)大的基線說明了我們?nèi)蝿?wù)的難度。我們最好的基線是基于BERT-large(Devlinetal.,2018)的,獲得56%的準(zhǔn)確率,遠(yuǎn)低于人類表現(xiàn),即89%的準(zhǔn)確度。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6231

    瀏覽量

    107929
  • 語言模型
    +關(guān)注

    關(guān)注

    0

    文章

    561

    瀏覽量

    10750
  • 自然語言處理
    +關(guān)注

    關(guān)注

    1

    文章

    628

    瀏覽量

    14110

原文標(biāo)題:自然語言處理頂會NAACL最佳論文出爐!谷歌BERT名至實(shí)歸獲最佳長論文

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    理想汽車八篇論文入選ICCV 2025

    近日,ICCV 2025(國際計(jì)算機(jī)視覺大會)公布論文錄用結(jié)果,理想汽車共有8篇論文入選,其中5篇來自自動駕駛團(tuán)隊(duì),3篇來自基座模型團(tuán)隊(duì)。ICCV作為計(jì)算機(jī)視覺領(lǐng)域的頂級學(xué)術(shù)
    的頭像 發(fā)表于 07-03 13:58 ?136次閱讀

    后摩智能四篇論文入選三大國際

    2025 年上半年,繼年初被 AAAI、ICLR、DAC 三大國際會收錄 5 篇論文后,后摩智能近期又有 4 篇論文入選CVPR、ICML、ACL三大國際
    的頭像 發(fā)表于 05-29 15:37 ?313次閱讀

    云知聲四篇論文入選自然語言處理ACL 2025

    結(jié)果正式公布。云知聲在此次國際學(xué)術(shù)盛會中表現(xiàn)卓越,共有4篇論文被接收,其中包括2篇主論文(Main Paper)和2篇Findings。入選的4篇
    的頭像 發(fā)表于 05-26 14:15 ?484次閱讀
    云知聲四篇<b class='flag-5'>論文</b>入選<b class='flag-5'>自然語言</b><b class='flag-5'>處理</b><b class='flag-5'>頂</b><b class='flag-5'>會</b>ACL 2025

    美報(bào)告:中國芯片研究論文全球領(lǐng)先

    據(jù)新華社報(bào)道,美國喬治敦大學(xué)“新興技術(shù)觀察項(xiàng)目(ETO)”3日在其網(wǎng)站發(fā)布一份報(bào)告說,2018年至2023年間,在全球發(fā)表的芯片設(shè)計(jì)和制造相關(guān)論文中,中國研究人員的論文數(shù)量遠(yuǎn)超其他國家,中國在高被
    的頭像 發(fā)表于 03-05 14:32 ?1033次閱讀

    后摩智能5篇論文入選國際

    2025年伊始,后摩智能在三大國際(AAAI、ICLR、DAC)中斬獲佳績,共有5篇論文被收錄,覆蓋大語言模型(LLM)推理優(yōu)化、模型量化、硬件加速等前沿方向。
    的頭像 發(fā)表于 02-19 14:02 ?727次閱讀
    后摩智能5篇<b class='flag-5'>論文</b>入選國際<b class='flag-5'>頂</b><b class='flag-5'>會</b>

    自然語言處理與機(jī)器學(xué)習(xí)的關(guān)系 自然語言處理的基本概念及步驟

    Learning,簡稱ML)是人工智能的一個(gè)核心領(lǐng)域,它使計(jì)算機(jī)能夠從數(shù)據(jù)中學(xué)習(xí)并做出預(yù)測或決策。自然語言處理與機(jī)器學(xué)習(xí)之間有著密切的關(guān)系,因?yàn)闄C(jī)器學(xué)習(xí)提供一種強(qiáng)大的工具,用于從大量文本數(shù)據(jù)中提取模式和知識,從而提高NLP系
    的頭像 發(fā)表于 12-05 15:21 ?1922次閱讀

    語音識別與自然語言處理的關(guān)系

    在人工智能的快速發(fā)展中,語音識別和自然語言處理(NLP)成為了兩個(gè)重要的技術(shù)支柱。語音識別技術(shù)使得機(jī)器能夠理解人類的語音,而自然語言處理則讓機(jī)器能夠理解、解釋和生成人類
    的頭像 發(fā)表于 11-26 09:21 ?1453次閱讀

    ASR與自然語言處理的結(jié)合

    ASR(Automatic Speech Recognition,自動語音識別)與自然語言處理(NLP)是人工智能領(lǐng)域的兩個(gè)重要分支,它們在許多應(yīng)用中緊密結(jié)合,共同構(gòu)成了自然語言理解和生成的技術(shù)體系
    的頭像 發(fā)表于 11-18 15:19 ?986次閱讀

    自然語言處理與機(jī)器學(xué)習(xí)的區(qū)別

    在人工智能的快速發(fā)展中,自然語言處理(NLP)和機(jī)器學(xué)習(xí)(ML)成為了兩個(gè)核心的研究領(lǐng)域。它們都致力于解決復(fù)雜的問題,但側(cè)重點(diǎn)和應(yīng)用場景有所不同。 1. 自然語言處理(NLP) 定義:
    的頭像 發(fā)表于 11-11 10:35 ?1503次閱讀

    使用LLM進(jìn)行自然語言處理的優(yōu)缺點(diǎn)

    自然語言處理(NLP)是人工智能和語言學(xué)領(lǐng)域的一個(gè)分支,它致力于使計(jì)算機(jī)能夠理解、解釋和生成人類語言。大型語言模型(LLM)是NLP領(lǐng)域的一
    的頭像 發(fā)表于 11-08 09:27 ?2286次閱讀

    經(jīng)緯恒潤功能安全AI 智能體論文成功入選EMNLP 2024!

    :AnAdvancedLLM-BasedMulti-AgentforIntelligentFunctionalSafetyEngineering》成功入選EMNLP2024產(chǎn)業(yè)應(yīng)用分會(IndustryTrack)。EMNLP作為自然語言處理領(lǐng)域的高規(guī)格
    的頭像 發(fā)表于 10-18 08:00 ?684次閱讀
    經(jīng)緯恒潤功能安全AI 智能體<b class='flag-5'>論文</b>成功入選EMNLP 2024!

    中科馭數(shù)聯(lián)合處理器芯片全國重點(diǎn)實(shí)驗(yàn)室獲得“CCF芯片大會最佳論文獎”

    Accelerator on FPGA with Graph Reordering Engine》獲得“CCF芯片大會最佳論文獎”。該項(xiàng)工作由鄢貴海研究員指導(dǎo)完成,論文第一作者是博士
    的頭像 發(fā)表于 08-02 11:09 ?1002次閱讀

    地平線科研論文入選國際計(jì)算機(jī)視覺ECCV 2024

    近日,地平線兩篇論文入選國際計(jì)算機(jī)視覺ECCV 2024,自動駕駛算法技術(shù)再有新突破。
    的頭像 發(fā)表于 07-27 11:10 ?1444次閱讀
    地平線科研<b class='flag-5'>論文</b>入選國際計(jì)算機(jī)視覺<b class='flag-5'>頂</b><b class='flag-5'>會</b>ECCV 2024

    谷歌DeepMind被曝抄襲開源成果,論文還中了會議

    谷歌DeepMind一篇中了流新生代會議CoLM 2024的論文被掛了,瓜主直指其抄襲一年前就掛在arXiv上的一項(xiàng)研究。開源的那種。
    的頭像 發(fā)表于 07-16 18:29 ?856次閱讀
    <b class='flag-5'>谷歌</b>DeepMind被曝抄襲開源成果,<b class='flag-5'>論文</b>還中了<b class='flag-5'>頂</b>流<b class='flag-5'>會議</b>

    圖像識別技術(shù)包括自然語言處理

    圖像識別技術(shù)與自然語言處理是人工智能領(lǐng)域的兩個(gè)重要分支,它們在很多方面有著密切的聯(lián)系,但也存在一些區(qū)別。 一、圖像識別技術(shù)與自然語言處理的關(guān)系 1.1 圖像識別技術(shù)的定義 圖像識別技術(shù)
    的頭像 發(fā)表于 07-16 10:54 ?1519次閱讀