一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

我們可以使用transformer來(lái)干什么?

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:AI部落聯(lián)盟 ? 作者:AI部落聯(lián)盟 ? 2021-04-22 10:49 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

前言

2021年4月,距離論文“Attention is all you need”問(wèn)市過(guò)去快4年了。這篇論文的引用量正在沖擊2萬(wàn)大關(guān)。

筆者所在的多個(gè)學(xué)習(xí)交流群也經(jīng)常有不少同學(xué)在討論:transformer是什么?transformer能干啥?為什么要用transformer?transformer能替代cnn嗎?怎么讓transformer運(yùn)行快一點(diǎn)?以及各種個(gè)樣的transformer技術(shù)細(xì)節(jié)問(wèn)題。

解讀以上所有問(wèn)題不再本文范疇內(nèi),但筆者也將在后續(xù)文章中繼續(xù)探索以上問(wèn)題。本文重點(diǎn)關(guān)注:我們用transformer干啥?

我們用transformer干啥?筆者突然發(fā)現(xiàn)這句話有兩種理解(orz中文博大精深),希望我的語(yǔ)文不是體育老師教的。

疑問(wèn)句:

我們使用transformer在做什么?

解決什么深度學(xué)習(xí)任務(wù)?

反問(wèn)句:

我們用用transformer干啥?

為啥不用LSTM和CNN或者其他神經(jīng)網(wǎng)絡(luò)呢?

疑問(wèn)句:用transformer干啥?

谷歌學(xué)術(shù)看一眼。

為了簡(jiǎn)潔+有理有據(jù)回答這個(gè)問(wèn)題(有缺失之處忘大家指出),筆者首先在谷歌學(xué)術(shù)上搜尋了一下“Attention is all you need”看了一下被引,到底是哪些文章在引用transformer呢?

“Attention is all you need”被引:19616次。

先看一下前幾名引用的被引:

最高引用的“Bert:Pre-training of deep bidirectional transformers for language understanding“被引:17677次。BERT在做自然語(yǔ)言處理領(lǐng)域的語(yǔ)言模型。

第2和4名:“Squeeze and Excitaion Networks”被引用6436次,“Non-local neural networks”。計(jì)算機(jī)視覺(jué)領(lǐng)域,但還沒(méi)有直接用transformer。

第3名:“Graph attention networks”被引用3413,一種圖神經(jīng)網(wǎng)絡(luò),該文也不是直接使用transformer的,但使用了attention。

第5和6名:“Xlnet:Generalized autoregressive pretraining for language undersstanding“ 2318次和 ”Improving language understanding by generative pretraining“ 1876次。自然語(yǔ)言處理領(lǐng)域預(yù)訓(xùn)練/語(yǔ)言模型/生成模型。

第7名“self-attention generative adversarial networks” 1508次。基于self-attetnion的生成對(duì)抗網(wǎng)絡(luò)。

第8、9、10都屬于自然語(yǔ)言處理領(lǐng)域,一個(gè)是GLUE數(shù)據(jù)集,一個(gè)做multi-task learning。

從Top的引用已經(jīng)看出自然語(yǔ)言處理領(lǐng)域肯定是使用transformer的大頭了。隨后筆者對(duì)熟悉的深度學(xué)習(xí)任務(wù)關(guān)鍵詞搜了一下被引用:

計(jì)算機(jī)視覺(jué)領(lǐng)域vision前2的被引用:“Vibert”和“Stand-alone self-attetnion in vision model”分別為385和171次。

語(yǔ)音信號(hào)處理領(lǐng)域speech:“state-of-the-art speech recognition with sequence-to-sequence model” 被引710次。

多模態(tài)任務(wù)modal:“Unicoder-Vl:

A universal encoder for vision and language by cross-model pre-training。

檢索領(lǐng)域etrieval:“multilingual universal sentence encoder for semantic retrieval”被引73次

推薦領(lǐng)域recommendation:驚訝的我發(fā)現(xiàn)居然只有10篇文章orz。

初步結(jié)論:transformer在自然語(yǔ)言處理任務(wù)中大火,隨后是語(yǔ)音信號(hào)領(lǐng)域和計(jì)算機(jī)視覺(jué)領(lǐng)域,然后信息檢索領(lǐng)域也有所啟航,推薦領(lǐng)域文章不多似乎剛剛起步。

執(zhí)著的筆者擴(kuò)大搜索范圍直接谷歌搜索了一下,找到了這篇文章BERT4Rec(被引用128):”BERT4Rec: Sequential Recommendation with Bidirectional Encoder Representations from Transformer“。

Github上搜一搜。

排名第1的是HuggingFace/transformers代碼庫(kù)。筆者對(duì)這個(gè)庫(kù)還算熟悉,但最近瘋狂新增的模型缺失還沒(méi)有完全跟進(jìn)過(guò),于是也整理看了一下。

7d5ac588-a295-11eb-aece-12bb97331649.png

圖1 HuggingFace/transformers代碼庫(kù)關(guān)系圖

如圖1所示,左邊展示了Huggingface/transformers代碼庫(kù)能處理的各種深度學(xué)習(xí)任務(wù),中間展示的是處理這些任務(wù)的統(tǒng)一流水線(pipeline),右邊展示的是與任務(wù)對(duì)應(yīng)的transformers模型名稱,下方表示用transformers解決這些深度學(xué)習(xí)任務(wù)可以在cpu或者gpu上進(jìn)行,可以使用tensorflow也可以使用pytorch框架。

那么根據(jù)谷歌和github結(jié)果基本可以得到這個(gè)核心結(jié)論啦:transformer能干啥?目前已有的transformer開(kāi)源代碼和模型里自然語(yǔ)言處理任務(wù)占大頭(幾乎覆蓋了所有自然語(yǔ)言處理任務(wù)),隨后是計(jì)算機(jī)視覺(jué)和語(yǔ)音信號(hào)處理,最后自然而然進(jìn)行多模態(tài)信號(hào)處理啦,推薦系統(tǒng)中的序列建模也逐步開(kāi)始應(yīng)用transformer啦。

有一點(diǎn)值得注意:自然語(yǔ)言處理里,所有研究同學(xué)的詞表庫(kù)基本統(tǒng)一,所有谷歌/facebook在大規(guī)模語(yǔ)料上預(yù)訓(xùn)練的transformer模型大家都可以使用。推薦系統(tǒng)不像自然語(yǔ)言處理,各家對(duì)user ID,Item ID或者物品類別ID的定義是不一樣的,所以各家的pretrain的模型基本也沒(méi)法分享給其他家使用(哈哈哈商業(yè)估計(jì)也不讓分享),也或許也是為什么transformer的開(kāi)源推薦系統(tǒng)較少的原因之一吧,但不代表各大廠/研究機(jī)構(gòu)用的少哦。

反問(wèn)句:用transformer干啥?

為什么非要使用transformer呢?

筆者從一個(gè)散修(哈哈修仙界對(duì)修煉者的一種稱呼)的角度聊一聊自己的看法。

不得不用。

首先谷歌/Facebook一眾大廠做出來(lái)了基于transformer的BERT/roberta/T5等,刷新了各種任務(wù)的SOTA,還開(kāi)源了模型和代碼。

注意各種任務(wù)啊,啊這,咱們做論文一般都得在幾個(gè)數(shù)據(jù)集上驗(yàn)證自己的方法是否有效,人家都SOTA了,咱得引,得復(fù)現(xiàn)呀,再說(shuō),站在巨人的肩上創(chuàng)下新SOTA也是香的。

的確好用。

Transformer是基于self-attetion的,self-attention的確有著cnn和lstm都沒(méi)有的優(yōu)勢(shì):

比如比cnn看得更寬更遠(yuǎn),比lstm訓(xùn)練更快。

重復(fù)累加多層multi-head self-attetion還在被不短證明著其強(qiáng)大的表達(dá)能力!

改了繼續(xù)用。

如果不說(shuō)transformer的各種優(yōu)點(diǎn),說(shuō)一個(gè)大缺點(diǎn)自然就是:

參數(shù)量大、耗時(shí)耗機(jī)器。

但這些問(wèn)題又被一眾efficient transformers再不斷被解決。

比如本來(lái)整型數(shù)運(yùn)算的硬件開(kāi)發(fā)板無(wú)法使用transformers,隨后就有INT-BERT說(shuō)我們不僅可以用,還能更快更好。

上手就用。

以Huggingface/Transformers為例子,一個(gè)代碼庫(kù)包含多種深度學(xué)習(xí)任務(wù),多個(gè)開(kāi)源的transfromer模型,各種預(yù)訓(xùn)練transformer模型,以至于各種深度學(xué)習(xí)任務(wù)上手就來(lái),十分方便。

筆者似乎并沒(méi)有看到其他模型結(jié)構(gòu)有如此大的應(yīng)用范圍和規(guī)模了。

未來(lái)還要用。

從上一章節(jié)可以看出,transformer這股風(fēng)已經(jīng)從自然語(yǔ)言處理領(lǐng)域吹出去了,其他領(lǐng)域的SOTA也在不斷被transformer打破,那么以為這,自然語(yǔ)言處理領(lǐng)域的歷史逐漸在其他領(lǐng)域復(fù)現(xiàn)(當(dāng)然只是筆者個(gè)人觀點(diǎn)哈)。

原文標(biāo)題:我們用transformer干啥?

文章出處:【微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

責(zé)任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • Transforme
    +關(guān)注

    關(guān)注

    0

    文章

    12

    瀏覽量

    8889
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5561

    瀏覽量

    122794

原文標(biāo)題:我們用transformer干啥?

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    可以使用 wiced_hal_write_nvram API 來(lái)更改 BD 地址嗎?

    /WICED-Module-Programmer-Download/td-p/290595 我想知道模塊中正確的地址或 SV ID BD 地址在哪里? 我可以使用 wiced_hal_write_nvram API 來(lái)更改 BD 地址嗎?
    發(fā)表于 07-03 06:20

    請(qǐng)問(wèn)下CYW20829 是否可以使用miniprog3來(lái)燒錄呢?

    請(qǐng)問(wèn)下CYW20829 是否可以使用miniprog3來(lái)燒錄呢? 我嘗試MTB programmer無(wú)法識(shí)別miniprog3,PSOC programmer識(shí)別后貌似不支持20829的燒錄。
    發(fā)表于 07-01 07:00

    粘接聚酰亞胺PI膜除了使用PI膜專用UV膠粘接,還可以使用熱固化環(huán)氧膠來(lái)解決!

    粘接聚酰亞胺PI膜可以使用PI膜專用UV膠粘接,但使用UV膠粘接時(shí),需要粘接材料至少有一方要透UV紫外光方可,如不能透UV光,那么粘接PI這種難于粘接的材料時(shí),還可以使用熱固化環(huán)氧膠來(lái)解決!熱固化環(huán)
    的頭像 發(fā)表于 05-07 09:11 ?389次閱讀
    粘接聚酰亞胺PI膜除了使用PI膜專用UV膠粘接,還<b class='flag-5'>可以使</b>用熱固化環(huán)氧膠<b class='flag-5'>來(lái)</b>解決!

    鉗形表是干什么用的?點(diǎn)開(kāi)看看就知道了

    的運(yùn)行過(guò)程中,我們需要實(shí)時(shí)了解電路中的電流大小,以判斷設(shè)備是否正常工作。比如工廠里的大型電機(jī),通過(guò)鉗形表可以快速準(zhǔn)確地測(cè)量電機(jī)運(yùn)行時(shí)的電流。如果電流值超出了正常范圍,就可能意味著電機(jī)存在故障,需要及時(shí)檢修
    發(fā)表于 05-06 15:34

    是否可以使用FX2LP對(duì)XCF02SVO20C進(jìn)行編程?

    我們有一款使用 FX2LP 和 XCF02SVO20C PROM 的產(chǎn)品。在我們的系統(tǒng)中,我們利用 PROM 來(lái)更新 FPGA 固件。由于我不是固件專家,我想問(wèn)是否
    發(fā)表于 05-06 09:48

    AI云服務(wù)平臺(tái)可以干什么

    當(dāng)今,AI云服務(wù)平臺(tái),作為連接技術(shù)與應(yīng)用的橋梁,正以其廣泛的功能覆蓋和深度應(yīng)用場(chǎng)景,逐步滲透到社會(huì)經(jīng)濟(jì)的各個(gè)角落。下面,AI部落小編帶您詳細(xì)了解AI云服務(wù)平臺(tái)。
    的頭像 發(fā)表于 02-27 10:11 ?424次閱讀
    AI云服務(wù)平臺(tái)<b class='flag-5'>可以</b><b class='flag-5'>干什么</b>

    transformer專用ASIC芯片Sohu說(shuō)明

    2022年,我們打賭說(shuō)transformer會(huì)統(tǒng)治世界。 我們花了兩年時(shí)間打造Sohu,這是世界上第一個(gè)用于transformer(ChatGPT中的“T”)的專用芯片。 將
    的頭像 發(fā)表于 01-06 09:13 ?1156次閱讀
    <b class='flag-5'>transformer</b>專用ASIC芯片Sohu說(shuō)明

    PLM項(xiàng)目管理系統(tǒng)主要干什么?制造業(yè)企業(yè)的PLM應(yīng)用與效益

    在制造業(yè)的數(shù)字化轉(zhuǎn)型浪潮中,PLM(Product Lifecycle Management,產(chǎn)品全生命周期管理)項(xiàng)目管理系統(tǒng)扮演著至關(guān)重要的角色。那么,PLM項(xiàng)目管理系統(tǒng)主要干什么呢?簡(jiǎn)而言之
    的頭像 發(fā)表于 12-04 11:19 ?1394次閱讀
    PLM項(xiàng)目管理系統(tǒng)主要<b class='flag-5'>干什么</b>?制造業(yè)企業(yè)的PLM應(yīng)用與效益

    Transformer模型的具體應(yīng)用

    如果想在 AI 領(lǐng)域引領(lǐng)一輪新浪潮,就需要使用到 Transformer。
    的頭像 發(fā)表于 11-20 09:28 ?1568次閱讀
    <b class='flag-5'>Transformer</b>模型的具體應(yīng)用

    Transformer模型能夠做什么

    盡管名為 Transformer,但它們不是電視銀幕上的變形金剛,也不是電線桿上垃圾桶大小的變壓器。
    的頭像 發(fā)表于 11-20 09:27 ?1017次閱讀
    <b class='flag-5'>Transformer</b>模型能夠做什么

    TLC555這個(gè)電路的二極管是干什么用的,它是從哪來(lái)的?

    就這個(gè)電路二極管不知道干什么用的,它是從哪來(lái)的? 仿真結(jié)果跟官方的不一樣
    發(fā)表于 11-08 15:37

    AI開(kāi)發(fā)平臺(tái)可以干什么

    AI開(kāi)發(fā)平臺(tái)是指提供一系列工具、庫(kù)、框架和服務(wù),旨在幫助開(kāi)發(fā)者更快速、更高效地設(shè)計(jì)、訓(xùn)練、部署和管理AI模型的綜合性平臺(tái)。以下,是對(duì)AI開(kāi)發(fā)平臺(tái)的介紹,由AI部落小編整理發(fā)布。
    的頭像 發(fā)表于 11-05 09:53 ?658次閱讀

    如何限制容器可以使用的CPU資源

    默認(rèn)情況下容器可以使用的主機(jī) CPU 資源是不受限制的。和內(nèi)存資源的使用一樣,如果不對(duì)容器可以使用的 CPU 資源進(jìn)行限制,一旦發(fā)生容器內(nèi)程序異常使用 CPU 的情況,很可能把整個(gè)主機(jī)的 CPU 資源耗盡,從而導(dǎo)致更大的災(zāi)難。本文將介紹如何限制容器
    的頭像 發(fā)表于 10-24 17:04 ?702次閱讀
    如何限制容器<b class='flag-5'>可以使</b>用的CPU資源

    用INA2332放大信號(hào),可以用正負(fù)電源嗎?

    本人用INA2332放大信號(hào),由于由負(fù)信號(hào)輸入(幾百毫伏脈沖信號(hào))。所以用了正負(fù)5V電源,然后好像IC就燒了(V+和V-導(dǎo)通了)。應(yīng)該是可以用正負(fù)電源的吧。還有就是8腳和14腳的shutdown腳是干什么的。是輸入信號(hào)還是輸出信號(hào)。
    發(fā)表于 08-28 07:57

    LM318 COMP管腳是什么引腳,干什么用的?

    LM318 COMP 管腳是什么引腳,干什么用的,PSPICEFORTI 里面沒(méi)有318的COMP管腳在怎么應(yīng)用
    發(fā)表于 07-31 07:45