一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌再次發(fā)布BERT的多語言模型和中文模型

DPVg_AI_era ? 來源:未知 ? 作者:李倩 ? 2018-11-08 09:50 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

今天,在開源最強(qiáng)NLP模型BERT的TensorFlow代碼和預(yù)訓(xùn)練模型的基礎(chǔ)上,谷歌AI團(tuán)隊再次發(fā)布一個多語言模型和一個中文模型。

上周,谷歌AI團(tuán)隊開源了備受關(guān)注的“最強(qiáng)NLP模型”BERT的TensorFlow代碼和預(yù)訓(xùn)練模型,不到一天時間,收獲3000多星!

今天,谷歌再次發(fā)布BERT的多語言模型和中文模型!

BERT,全稱是BidirectionalEncoderRepresentations fromTransformers,是一種預(yù)訓(xùn)練語言表示的新方法。

BERT有多強(qiáng)大呢?它在機(jī)器閱讀理解頂級水平測試SQuAD1.1中表現(xiàn)出驚人的成績:全部兩個衡量指標(biāo)上全面超越人類!并且還在11種不同NLP測試中創(chuàng)出最佳成績,包括將GLUE基準(zhǔn)推至80.4%(絕對改進(jìn)7.6%),MultiNLI準(zhǔn)確度達(dá)到86.7% (絕對改進(jìn)率5.6%)等。

新智元近期對BERT模型作了詳細(xì)的報道和專家解讀:

NLP歷史突破!谷歌BERT模型狂破11項紀(jì)錄,全面超越人類!

狂破11項記錄,谷歌年度最強(qiáng)NLP論文到底強(qiáng)在哪里?

解讀谷歌最強(qiáng)NLP模型BERT:模型、數(shù)據(jù)和訓(xùn)練

如果你已經(jīng)知道BERT是什么,只想馬上開始使用,可以下載預(yù)訓(xùn)練過的模型,幾分鐘就可以很好地完成調(diào)優(yōu)。

戳這里直接使用:

https://github.com/google-research/bert/blob/master/multilingual.md

模型

目前有兩種多語言模型可供選擇。我們不打算發(fā)布更多單語言模型,但可能會在未來發(fā)布這兩種模型的BERT-Large版本:

BERT-Base, Multilingual:102 languages, 12-layer, 768-hidden, 12-heads, 110M parameters

BERT-Base, Chinese:Chinese Simplified and Traditional, 12-layer, 768-hidden, 12-heads, 110M parameters

多語言模型支持的語言是維基百科上語料最大的前100種語言(泰語除外)。多語言模型也包含中文(和英文),但如果你的微調(diào)數(shù)據(jù)僅限中文,那么中文模型可能會產(chǎn)生更好的結(jié)果。

結(jié)果

為了評估這些系統(tǒng),我們使用了XNLI dataset,它是MultiNLI的一個版本,其中dev集和test集已經(jīng)(由人類)翻譯成15種語言。需要注意的是,訓(xùn)練集是機(jī)器翻譯的(我們使用的是XNLI提供的翻譯,而不是Google NMT)。

以下6種主要語言的評估結(jié)果:

前兩行是XNLI baseline的結(jié)果,后三行是使用BERT的結(jié)果。

Translate Train表示MultiNLI的訓(xùn)練集是從英語用機(jī)器翻譯成外語的。所以訓(xùn)練和評估都是用外語完成的。遺憾的是,由于是用機(jī)器翻譯的數(shù)據(jù)進(jìn)行訓(xùn)練,因此無法量化較低的精度在多大程度上歸因于機(jī)器翻譯的質(zhì)量,多大程度上歸因于預(yù)訓(xùn)練模型的質(zhì)量。

Translate Test表示XNLI測試集是從外語用機(jī)器翻譯成英語的。因此,訓(xùn)練和評估都是用英語進(jìn)行的。但是,由于測試評估是在機(jī)器翻譯的英語上進(jìn)行的,因此準(zhǔn)確性取決于機(jī)器翻譯系統(tǒng)的質(zhì)量。

Zero Shot表示多語言BERT模型在英語MultiNLI上進(jìn)行了微調(diào),然后在外語XNLI測試集上進(jìn)行了評估。在這種情況下,預(yù)訓(xùn)練和微調(diào)的過程都不涉及機(jī)器翻譯。

請注意,英語的結(jié)果比MultiNLI baseline的84.2要差,因為這個訓(xùn)練使用的是Multilingual BERT模型,而不是English-only的BERT模型。這意味著對于語料資源大的語言,多語言模型的表現(xiàn)不如單語言模型。但是,訓(xùn)練和維護(hù)數(shù)十種單語言模型是不可行的。因此,如果你的目標(biāo)是使用英語和中文以外的語言最大限度地提高性能,那么從我們的多語言模型開始,對你感興趣的語言數(shù)據(jù)進(jìn)行額外的預(yù)訓(xùn)練是有益的。

對于中文來說,用MultilingualBERT-Base和Chinese-onlyBERT-Base訓(xùn)練的中文模型的結(jié)果比較如下:

跟英語類似,單語言模型比多語言模型好3%。

Fine-tuning 示例

多語言模型不需要任何特殊考慮或更改API。我們在tokenization.py中更新了BasicTokenizer的實現(xiàn)以支持漢字的tokenization,但沒有更改 tokenization API。

為了測試新模型,我們修改了run_classifier.py以添加對XNLI數(shù)據(jù)集的支持。這是MultiNLI的15種語言版本,其中dev/test 集已經(jīng)經(jīng)過人工翻譯的,訓(xùn)練集已經(jīng)經(jīng)過機(jī)器翻譯。

要運行 fine-tuning 代碼,請下載XNLI dev/test set和XNLI機(jī)器翻譯的訓(xùn)練集,然后將兩個.zip文件解壓縮到目錄$XNLI_DIR中。

在XNLI上運行 fine-tuning。該語言被硬編碼為run_classifier.py(默認(rèn)為中文),因此如果要運行其他語言,請修改XnliProcessor。

這是一個大型數(shù)據(jù)集,因此在GPU上訓(xùn)練需要花費幾個小時(在Cloud TPU上大約需要30分鐘)。要快速運行實驗以進(jìn)行調(diào)試,只需將num_train_epochs設(shè)置為較小的值(如0.1)即可。

export BERT_BASE_DIR=/path/to/bert/chinese_L-12_H-768_A-12 # or multilingual_L-12_H-768_A-12export XNLI_DIR=/path/to/xnli python run_classifier.py --task_name=XNLI --do_train=true --do_eval=true --data_dir=$XNLI_DIR --vocab_file=$BERT_BASE_DIR/vocab.txt --bert_config_file=$BERT_BASE_DIR/bert_config.json --init_checkpoint=$BERT_BASE_DIR/bert_model.ckpt --max_seq_length=128 --train_batch_size=32 --learning_rate=5e-5 --num_train_epochs=2.0 --output_dir=/tmp/xnli_output/

使用 Chinese-only 模型,結(jié)果應(yīng)該是這樣的:

***** Eval results ***** eval_accuracy = 0.774116 eval_loss = 0.83554 global_step = 24543 loss = 0.74603訓(xùn)練細(xì)節(jié)

數(shù)據(jù)源和采樣

我們選擇的語言是維基百科上語料最大的前100種語言。將每種語言的整個Wikipedia轉(zhuǎn)儲數(shù)據(jù)(不包括用戶頁和討論頁)作為每種語言的訓(xùn)練數(shù)據(jù)。

然而,對于特定語言,維基百科的語料大小差異很大,而在神經(jīng)網(wǎng)絡(luò)模型中,低資源語言可能是“代表性不足”的(假設(shè)語言一定程度上在有限的模型容量中“競爭”)。

維基百科的語料大小也與該語言的使用者人數(shù)有關(guān),而且我們也不想為了一種特定語言在很小的數(shù)據(jù)集上執(zhí)行數(shù)千個epochs,造成過度擬合模型。

為了平衡這兩個因素,我們在訓(xùn)練前數(shù)據(jù)創(chuàng)建(以及WordPiece詞匯創(chuàng)建)期間對數(shù)據(jù)進(jìn)行了指數(shù)平滑加權(quán)。換句話說,假設(shè)一種語言的概率是P(L),例如P(English) = 0.21,表示在將所有維基百科總合在一起之后,21%的數(shù)據(jù)是英語的。我們通過某個因子S對每個概率求冪,然后重新規(guī)范化,并從這個分布中進(jìn)行采樣。

在這個示例中,我們使S = 0.7。因此,像英語這樣的高資源語言會被抽樣不足,而像冰島語這樣的低資源語言會被過度采樣。比如說,在原始分布中,英語比冰島語采樣率高1000倍,但在平滑后,英語的采樣率只高100倍。

Tokenization

對于Tokenization,我們使用110k共享的WordPiece詞匯表。單詞計數(shù)的加權(quán)方式與數(shù)據(jù)相同,因此低資源語言的加權(quán)會增大。 我們故意不使用任何標(biāo)記來表示輸入語言(以便zero-shot訓(xùn)練可以工作)。

因為中文沒有空白字符,所以在使用WordPiece之前,我們在CJK Unicode范圍內(nèi)的每個字符周圍添加了空格。這意味著中文被有效地符號化了。請注意,CJK Unicode block僅包含漢字字符,不包括朝鮮文/韓文或日語片假名/平假名,這些與其他語言一樣使用空格+ WordPiece進(jìn)行標(biāo)記化。

對于所有其他語言,我們應(yīng)用與英語相同的方法:(a)字母小寫+重音刪除,(b)標(biāo)點符號分割,(c)空白標(biāo)記化。 我們知道口音標(biāo)記在某些語言中具有重要意義,但認(rèn)為減少有效詞匯的好處可以彌補(bǔ)這一點。一般來說,BERT強(qiáng)大的上下文模型應(yīng)該能彌補(bǔ)刪除重音標(biāo)記而引入的歧義。

支持的語言

多語言模型支持維基百科上語料量最大的前100種語言。

但我們不得不排除的唯一一種語言是泰語,因為它是唯一一種不使用空格來劃分單詞的語言(除了漢語),而且每個單詞的字符太多,不能使用基于字符的tokenization。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6231

    瀏覽量

    108005
  • 語言模型
    +關(guān)注

    關(guān)注

    0

    文章

    561

    瀏覽量

    10772
  • 機(jī)器翻譯
    +關(guān)注

    關(guān)注

    0

    文章

    140

    瀏覽量

    15182

原文標(biāo)題:谷歌最強(qiáng)NLP模型BERT官方中文版來了!多語言模型支持100種語言

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    ?VLM(視覺語言模型)?詳細(xì)解析

    的詳細(xì)解析: 1. 核心組成與工作原理 視覺編碼器 :提取圖像特征,常用CNN(如ResNet)或視覺Transformer(ViT)。 語言模型 :處理文本輸入/輸出,如GPT、BERT等,部分
    的頭像 發(fā)表于 03-17 15:32 ?3936次閱讀
    ?VLM(視覺<b class='flag-5'>語言</b><b class='flag-5'>模型</b>)?詳細(xì)解析

    摩爾線程宣布成功部署DeepSeek蒸餾模型推理服務(wù)

    。 據(jù)悉,DeepSeek開源模型多語言理解與復(fù)雜推理任務(wù)中一直表現(xiàn)出卓越的性能,其V3、R1等系列模型更是備受業(yè)界關(guān)注。而此次摩爾線程所實現(xiàn)的DeepSeek蒸餾模型推理服務(wù)部署,
    的頭像 發(fā)表于 02-06 13:49 ?784次閱讀

    語言模型管理的作用

    要充分發(fā)揮語言模型的潛力,有效的語言模型管理非常重要。以下,是對語言模型管理作用的分析,由AI部
    的頭像 發(fā)表于 01-02 11:06 ?382次閱讀

    谷歌正式發(fā)布Gemini 2.0 性能提升近兩倍

    在智能體時代,谷歌再次引領(lǐng)技術(shù)潮流,正式發(fā)布了其最新力作——Gemini 2.0。這款A(yù)I模型不僅在性能上實現(xiàn)了顯著提升,更是在多模態(tài)表現(xiàn)和原生工具應(yīng)用方面展現(xiàn)了前所未有的強(qiáng)大功能。
    的頭像 發(fā)表于 12-12 14:22 ?800次閱讀

    語言模型開發(fā)框架是什么

    語言模型開發(fā)框架是指用于訓(xùn)練、推理和部署大型語言模型的軟件工具和庫。下面,AI部落小編為您介紹大語言
    的頭像 發(fā)表于 12-06 10:28 ?517次閱讀

    語言模型開發(fā)語言是什么

    在人工智能領(lǐng)域,大語言模型(Large Language Models, LLMs)背后,離不開高效的開發(fā)語言和工具的支持。下面,AI部落小編為您介紹大語言
    的頭像 發(fā)表于 12-04 11:44 ?677次閱讀

    語言模型如何開發(fā)

    語言模型的開發(fā)是一個復(fù)雜且細(xì)致的過程,涵蓋了數(shù)據(jù)準(zhǔn)備、模型架構(gòu)設(shè)計、訓(xùn)練、微調(diào)和部署等多個階段。以下是對大語言模型開發(fā)步驟的介紹,由AI部
    的頭像 發(fā)表于 11-04 10:14 ?600次閱讀

    谷歌計劃12月發(fā)布Gemini 2.0模型

    近日,有消息稱谷歌計劃在12月發(fā)布其下一代人工智能模型——Gemini 2.0。這一消息引發(fā)了業(yè)界的廣泛關(guān)注,因為谷歌在人工智能領(lǐng)域一直保持著領(lǐng)先地位,而Gemini系列
    的頭像 發(fā)表于 10-29 11:02 ?1128次閱讀

    Llama 3 語言模型應(yīng)用

    理解復(fù)雜的上下文信息,包括對話歷史、用戶偏好和文化差異。這使得它在對話系統(tǒng)和個性化推薦中表現(xiàn)出色。 情感分析 :通過深度學(xué)習(xí)技術(shù),Llama 3 能夠識別和理解文本中的情感傾向,無論是正面的、負(fù)面的還是中性的。 多語言支持 :Llama 3 支持多種語言,
    的頭像 發(fā)表于 10-27 14:15 ?719次閱讀

    ChatGPT 的多語言支持特點

    )技術(shù)迎來了巨大的挑戰(zhàn)和機(jī)遇。ChatGPT,作為一個領(lǐng)先的語言模型,其多語言支持的特點成為了它在眾多應(yīng)用場景中不可或缺的優(yōu)勢。 1. 多語言理解能力 ChatGPT 的
    的頭像 發(fā)表于 10-25 17:30 ?1503次閱讀

    科大訊飛發(fā)布訊飛星火4.0 Turbo大模型及星火多語言模型

    ,科大訊飛以其一貫的創(chuàng)新精神,開創(chuàng)性地發(fā)布了星火多語言模型。這一創(chuàng)新之舉不僅進(jìn)一步鞏固了科大訊飛在中文和英文處理領(lǐng)域的領(lǐng)先地位,更將語言
    的頭像 發(fā)表于 10-24 13:58 ?886次閱讀

    谷歌全新推出開放式視覺語言模型PaliGemma

    這種熱烈的反響非常鼓舞人心,開發(fā)者們打造了一系列多樣的項目,例如用于印度語言多語言變體 Navarasa,以及設(shè)備端側(cè)動作模型 Octopus v2。開發(fā)者們展示了 Gemma 在打造極具影響力且易于使用的 AI 解決方案方面
    的頭像 發(fā)表于 10-15 17:37 ?729次閱讀

    使用OpenVINO 2024.4在算力魔方上部署Llama-3.2-1B-Instruct模型

    前面我們分享了《三步完成Llama3在算力魔方的本地量化和部署》。2024年9月25日,Meta又發(fā)布了Llama3.2:一個多語言大型語言模型(LLMs)的集合。
    的頭像 發(fā)表于 10-12 09:39 ?1440次閱讀
    使用OpenVINO 2024.4在算力魔方上部署Llama-3.2-1B-Instruct<b class='flag-5'>模型</b>

    Mistral AI與NVIDIA推出全新語言模型Mistral NeMo 12B

    Mistral AI 和 NVIDIA 于近日共同發(fā)布了一款全新的領(lǐng)先語言模型Mistral NeMo 12B。開發(fā)者可以輕松定制和部署該模型,令其適用于支持聊天機(jī)器人、
    的頭像 發(fā)表于 07-27 11:04 ?1133次閱讀

    【《大語言模型應(yīng)用指南》閱讀體驗】+ 基礎(chǔ)篇

    學(xué)習(xí)方法。其中文本向量化中的三種編碼方式:獨熱編碼、靜態(tài)編碼和動態(tài)編碼,這些概念描述是需要時間仔細(xì)研究理解的。 1.5章節(jié)終于開始講解大語言模型了,這也是基礎(chǔ)篇的最后一章節(jié),占據(jù)了基礎(chǔ)篇的一半篇幅
    發(fā)表于 07-25 14:33