一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

到底該怎么將這些頂尖工具用到我的模型里呢?

DPVg_AI_era ? 來源:lq ? 2019-02-24 10:43 ? 次閱讀

NLP方向近日各種大神工具層出不窮。然而,實踐才是硬道理,如何將它們應(yīng)用到自己的模型是個關(guān)鍵問題。本文就對此問題進(jìn)行了介紹。

近期的NLP方向,ELMO、GPT、BERT、Transformer-XL、GPT-2,各種預(yù)訓(xùn)練語言模型層出不窮,這些模型在各種NLP任務(wù)上一次又一次刷新上線,令人心馳神往。但是當(dāng)小編翻開他們的paper,每一個上面都寫著四個大字:“弱者退散”,到底該怎么將這些頂尖工具用到我的模型里呢?答案是Hugging Face的大神們開源的pytorch-pretrained-BERT。

Github 地址:

https://github.com/huggingface/pytorch-pretrained-BERT

模型簡介

近期的各種預(yù)訓(xùn)練語言模型,橫掃各種NLP任務(wù),這里我們介紹三個最火的預(yù)訓(xùn)練模型:

BERT,由Google AI團(tuán)隊,發(fā)表于2018年10月11日。它的文章是:BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding。

Transformer-XL, 由Google AI和Carnegie Mellon大學(xué),發(fā)表于2019年1月9日。它的文章是:Transformer-XL: Attentive Language Models Beyond a Fixed-Length Context。

GPT-2,由OpenAI 團(tuán)隊,發(fā)表于2019年2月14日,它的文章是:Language Models are Unsupervised Multitask Learners。

基本上,每一個文章,都在發(fā)表的時候,刷新當(dāng)時的幾乎所有NLP任務(wù)的State-of-the-Art,然后引發(fā)一波熱潮。 當(dāng)然,目前風(fēng)頭正盛的是GPT-2,它前幾天剛發(fā)表。

開源實現(xiàn)

然而,讓小編翻開他們的paper,發(fā)現(xiàn)每一個上面都寫著四個大字:“弱者退散”,到底該怎么將這些頂尖工具用到我的模型里呢,Hugging Face 的大神們,緊跟前沿,將所有的預(yù)訓(xùn)練語言模型都實現(xiàn)并開源了。更令人欽佩的是,它們還做了很多封裝,讓大家都可以才在這些巨人模型的肩膀上。

Hugging Face開源的庫叫pytorch-pretained-bert, 你可以在本文開頭找到鏈接。接下來的部分,我們介紹一下它的安裝和使用。

安裝使用

你可以直接使用 Pip install 來安裝它:

pip install pytorch-pretrained-bert

pytorch-pretrained-bert 內(nèi) BERT,GPT,Transformer-XL,GPT-2。

為了獲取一句話的BERT表示,我們可以:

拿到表示之后,我們可以在后面,接上自己的模型,比如NER。

我們也可以獲取GPT的表示:

Transformer-XL表示:

以及,非?;鸬模珿PT-2的表示:

有了這些表示,我們可以在后面,接入自己的模型,比如:

文本分類

https://github.com/huggingface/pytorch-pretrained-BERT/blob/master/examples/run_classifier.py

閱讀理解

https://github.com/huggingface/pytorch-pretrained-BERT/blob/master/examples/run_squad.py

語言模型

https://github.com/huggingface/pytorch-pretrained-BERT/blob/master/examples/run_lm_finetuning.py

等等

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 開源
    +關(guān)注

    關(guān)注

    3

    文章

    3533

    瀏覽量

    43292
  • 語言模型
    +關(guān)注

    關(guān)注

    0

    文章

    557

    瀏覽量

    10596
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    490

    瀏覽量

    22415

原文標(biāo)題:BERT、GPT-2這些頂尖工具到底該怎么用到我的模型里?

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    請問AIC3206的一階濾波的頻率到底怎么計算?

    請問AIC3206的一階濾波的頻率到底怎么計算? N0缺省是0x7fffff,N1=0,D1=0.算下來H(z)=1.這代表什么意思?有沒有什么
    發(fā)表于 10-29 08:29

    如何LCD運用到低通濾波電路

    本帖最后由 klysa 于 2011-11-2 17:28 編輯 如題如何LCD運用到低通濾波電路
    發(fā)表于 11-02 17:28

    ARM到底是什么?。。。?!我從何學(xué)起!怎么學(xué)!

    ARM到底是什么?。。。?!我從何學(xué)起!怎么學(xué)!高手給指點指點吧{:soso_e154:}
    發(fā)表于 11-02 16:48

    這些仿真工具帶有dsp模型

    里面有24的模型,如2407,相信還有人在學(xué)這款dsp。具體怎么使用我還沒有學(xué)會。3、EasyEDA 國產(chǎn)的EDA軟件,也是最近在論壇看到的,令我眼前一亮,試用了一下,不得不說真得不錯的一個工具。它是
    發(fā)表于 06-09 16:12

    誰能幫我完成這些程序到我的dsPic模型

    不會按原樣工作,所以我害怕開始修改它以適應(yīng)我的dsPic模型。然后我試圖編譯“ex_app_led_blink”項目,結(jié)果得到以下錯誤:我的觀點是,這個“簡單”的設(shè)置遠(yuǎn)非易事。誰能幫我一步一步地完成這些程序到我的dsPic
    發(fā)表于 05-08 11:00

    無法獲知TIVA到底有什么函數(shù)以及這些函數(shù)的用法?

    初學(xué)TIVA,有一個地方讓我感到頭疼,就是無法獲知TIVA到底有什么函數(shù)以及這些函數(shù)的用法(不需要源代碼,只想知道每一個函數(shù)的具體用途),不知道論壇的大神有沒有相關(guān)的資源,可否發(fā)一
    發(fā)表于 08-26 08:34

    到底什么是密鑰?

    文章目錄各種密鑰總結(jié)其他密鑰分類密鑰的管理密鑰詳解在之前的文章中,我們講到了對稱密碼,公鑰密碼,消息認(rèn)證碼和數(shù)字簽名等密碼學(xué)的技術(shù),這些技術(shù)中都使用到了一個叫做密鑰的東西。那么到底什么是密鑰
    發(fā)表于 07-27 06:45

    到底怎么去學(xué)習(xí)單片機(jī)編程

    到底怎么去學(xué)習(xí)單片機(jī)編程?
    發(fā)表于 10-26 07:20

    到底怎么去使用KEIL的這些調(diào)試方法

    為什么要虛擬串口,這里的虛擬串口又是什么意思?到底怎么去使用KEIL的這些調(diào)試方法?
    發(fā)表于 12-21 07:20

    如何使用Paddle2ONNX模型轉(zhuǎn)換工具飛槳模型轉(zhuǎn)換為ONNX模型?

    如何使用Paddle2ONNX模型轉(zhuǎn)換工具飛槳模型轉(zhuǎn)換為ONNX模型?
    發(fā)表于 12-29 07:42

    Env工具到底是什么?怎樣去使用Env工具

    是什么?我們對于 env 的印象就是下面這樣一個黑黑的 shell 終端,那它到底是什么?其實就像我們想的那樣,它本質(zhì)上就是調(diào)用的 cmd 命令框,那也就是說明,這些一切都可以在 cmd 中完成,并不需要裝
    發(fā)表于 06-24 11:31

    如何模型應(yīng)用到效能評估系統(tǒng)中去

    如何模型應(yīng)用到效能評估系統(tǒng)中去 智慧華盛恒輝效能評估系統(tǒng)大數(shù)據(jù)的應(yīng)用效能評估系統(tǒng)及其評估方法,以應(yīng)用基礎(chǔ)數(shù)據(jù)和應(yīng)用運行數(shù)據(jù)為基礎(chǔ),從數(shù)據(jù)開放集約能力、用戶認(rèn)可度、平安運行能力和運維保障支持四個
    的頭像 發(fā)表于 09-27 16:16 ?664次閱讀

    開源LLEMMA發(fā)布:超越未公開的頂尖模型,可直接應(yīng)用于工具和定理證明

    但LLEMMA的出現(xiàn)改變了這一局面。它不僅在MATH基準(zhǔn)測試上創(chuàng)下了新高,甚至超越了某些還未對外公開的頂尖模型,如Minerva。更讓人欣喜的是,LLEMMA無需額外的調(diào)整,即可直接應(yīng)用于工具和定理證明。
    的頭像 發(fā)表于 10-22 10:24 ?965次閱讀
    開源LLEMMA發(fā)布:超越未公開的<b class='flag-5'>頂尖</b><b class='flag-5'>模型</b>,可直接應(yīng)用于<b class='flag-5'>工具</b>和定理證明

    如何Kafka使用到我們的后端設(shè)計中

    本文介紹了以下內(nèi)容: 1.什么是Kafka? 2.為什么我們需要使用Kafka這樣的消息系統(tǒng)及使用它的好處 3.如何Kafka使用到我們的后端設(shè)計中。 譯自timber.io
    的頭像 發(fā)表于 10-30 14:30 ?702次閱讀
    如何<b class='flag-5'>將</b>Kafka使<b class='flag-5'>用到我</b>們的后端設(shè)計中

    電流探頭的帶寬到底如何選擇?

    電流探頭的帶寬到底如何選擇? 電流探頭的帶寬選擇對于儀器的測量精度和信號質(zhì)量至關(guān)重要。帶寬是指電流探頭能夠有效傳輸?shù)念l率范圍。因此,正確選擇電流探頭的帶寬對于準(zhǔn)確測量電流信號是至關(guān)重要的。 首先
    的頭像 發(fā)表于 01-08 16:09 ?2325次閱讀