一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

OpenAI推出了一種自然語(yǔ)言處理模型

電子工程師 ? 來(lái)源:lq ? 2019-04-29 18:16 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

幾個(gè)月前,OpenAI推出了一種自然語(yǔ)言處理模型,能夠從維基百科以及亞馬遜的產(chǎn)品評(píng)價(jià)中生產(chǎn)連貫的文本段落。

最近,其開放的OpenAI Five 人工智能系統(tǒng)在全網(wǎng)公開賽中放出了驕人戰(zhàn)績(jī)——擊敗了99.4%的玩家。在和3萬(wàn)多名人類玩家的對(duì)壘中,只輸了42場(chǎng)。

OpenAI的大招還不止如此。今日凌晨,OpenAI發(fā)博文表示,在這些和其他研究的基礎(chǔ)上,他們開發(fā)了一種深度神經(jīng)網(wǎng)絡(luò)稀疏 Transformer(Sparse Transformer),可以實(shí)現(xiàn)生成式模型,在文本、圖像、聲音等序列預(yù)測(cè)上都創(chuàng)造了新紀(jì)錄。并且可預(yù)測(cè)的序列長(zhǎng)度比之前可能的長(zhǎng)度長(zhǎng)了30倍。

“人工智能研究的一個(gè)現(xiàn)有挑戰(zhàn)是如何對(duì)復(fù)雜數(shù)據(jù)中遠(yuǎn)距離,且較精細(xì)的相互依賴性進(jìn)行建模,”O(jiān)penAI技術(shù)人員Rewon Child和軟件工程師Scott Gray在博客文章中寫道?!斑^(guò)去,在這些數(shù)據(jù)上使用的模型往往只是針對(duì)一個(gè)域?qū)iT設(shè)計(jì)的,或者是很難擴(kuò)展到超過(guò)幾千個(gè)元素的序列。相比之下,我們的模型可以使用上百層對(duì)有上萬(wàn)元素的序列進(jìn)行建模,并且在多個(gè)域中實(shí)現(xiàn)最先進(jìn)的性能。

這次稀疏 Transformer 研究的基礎(chǔ)源于17年Google Brain設(shè)計(jì)的一種新型的網(wǎng)絡(luò)結(jié)構(gòu),即《Attention Is All You Need》中提出的Transformer。不使用 RNN、CNN 模型,只使用 attention 機(jī)制構(gòu)成的解碼編碼結(jié)構(gòu)就達(dá)到了很好的效果。為谷歌團(tuán)隊(duì)于前年 6 月所提出的 NLP 經(jīng)典之作,同時(shí)被 2017 NIPS 接收(2017 錄取率約 20 %),引用次數(shù)已達(dá)1566次,并還在持續(xù)增加中。

與所有深度神經(jīng)網(wǎng)絡(luò)一樣, Transformer包含排列在互連層中的神經(jīng)元(本質(zhì)用數(shù)學(xué)函數(shù)模擬生物神經(jīng)元),這些層從輸入數(shù)據(jù)傳入“信號(hào)”,并緩慢調(diào)整每個(gè)連接的權(quán)重。這是模型如何提取特征并學(xué)習(xí)以及如何進(jìn)行預(yù)測(cè)的關(guān)鍵點(diǎn)。在 Transformer 中,每個(gè)輸出元素與每個(gè)輸入元素都相連,它們之間的權(quán)重是動(dòng)態(tài)計(jì)算出來(lái)的,而過(guò)程稱為注意力。

上圖:用稀疏 Tansformer 重計(jì)算(recomputaing)注意力矩陣前后的內(nèi)存使用情況。

注意力機(jī)制通常需要為每個(gè)層和每個(gè)所謂的注意頭創(chuàng)建一個(gè)注意力矩陣,從計(jì)算的角度來(lái)看這不是特別有效。例如,包含24,000個(gè)樣本的2秒音頻片段或64低分辨率圖像的語(yǔ)料庫(kù)可能分別占用590GB和154GB內(nèi)存,而這遠(yuǎn)遠(yuǎn)高于用于訓(xùn)練AI模型的GPU的負(fù)載。

OpenAI的方法通過(guò)重新計(jì)算矩陣來(lái)最小化內(nèi)存使用量,上面描述的590GB的內(nèi)存需求在重新計(jì)算后僅需9.2GB;154GB可壓縮到2.4GB。于是,實(shí)際上最大的內(nèi)存開銷就變得與層數(shù)無(wú)關(guān)了,因此就允許所述模型進(jìn)行“非常深”的深度來(lái)進(jìn)行訓(xùn)練。

由于單個(gè)注意力矩陣對(duì)于龐大的數(shù)據(jù)量輸入并不是特別實(shí)用,因此本文提出的深度神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)了稀疏注意力模式,其中每個(gè)輸出僅從輸入子集計(jì)算權(quán)重,對(duì)于跨越較大子集的神經(jīng)元層,通過(guò)矩陣因子分解來(lái)轉(zhuǎn)換矩陣,他們認(rèn)為這是保持神經(jīng)網(wǎng)絡(luò)層學(xué)習(xí)數(shù)據(jù)模式能力所必需的一步。

上圖:使用稀疏Transformer生成圖像

通常,實(shí)現(xiàn)稀疏注意力需要將查詢和關(guān)鍵矩陣進(jìn)行“切片”,因此為了簡(jiǎn)化實(shí)驗(yàn),OpenAI 實(shí)現(xiàn)了一組塊稀疏核,這些核在 GPU 上高效地執(zhí)行這些操作。另外,OpenAI開源了這些內(nèi)核,并在Github上提供示例稀疏注意函數(shù)。

https://github.com/openai/sparse_attention

根據(jù)OpenAI的博客介紹到,即使經(jīng)過(guò)改進(jìn),自回歸序列生成對(duì)于非常高分辨率的圖像或視頻來(lái)說(shuō)仍然是不切實(shí)際的。不過(guò),提出的優(yōu)化注意力操作可能是一次有益的探索,可以和其他(如多尺度方法)方法相結(jié)合來(lái)對(duì)高維數(shù)據(jù)進(jìn)行建模。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 建模
    +關(guān)注

    關(guān)注

    1

    文章

    317

    瀏覽量

    61597
  • 人工智能
    +關(guān)注

    關(guān)注

    1807

    文章

    49029

    瀏覽量

    249575
  • 自然語(yǔ)言處理
    +關(guān)注

    關(guān)注

    1

    文章

    628

    瀏覽量

    14164

原文標(biāo)題:OpenAI提出稀疏Transformer模型:文本、圖像、聲音一網(wǎng)打盡,將可預(yù)測(cè)序列長(zhǎng)度提高30倍

文章出處:【微信號(hào):BigDataDigest,微信公眾號(hào):大數(shù)據(jù)文摘】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    如何優(yōu)化自然語(yǔ)言處理模型的性能

    優(yōu)化自然語(yǔ)言處理(NLP)模型的性能是個(gè)多方面的任務(wù),涉及數(shù)據(jù)預(yù)處理、特征工程、模型選擇、
    的頭像 發(fā)表于 12-05 15:30 ?1705次閱讀

    如何使用自然語(yǔ)言處理分析文本數(shù)據(jù)

    使用自然語(yǔ)言處理(NLP)分析文本數(shù)據(jù)是個(gè)復(fù)雜但系統(tǒng)的過(guò)程,涉及多個(gè)步驟和技術(shù)。以下是個(gè)基本的流程,幫助你理解如何使用NLP來(lái)分析文本數(shù)據(jù): 1. 數(shù)據(jù)收集 收集文本數(shù)據(jù) :從各種
    的頭像 發(fā)表于 12-05 15:27 ?1583次閱讀

    自然語(yǔ)言處理與機(jī)器學(xué)習(xí)的關(guān)系 自然語(yǔ)言處理的基本概念及步驟

    Learning,簡(jiǎn)稱ML)是人工智能的個(gè)核心領(lǐng)域,它使計(jì)算機(jī)能夠從數(shù)據(jù)中學(xué)習(xí)并做出預(yù)測(cè)或決策。自然語(yǔ)言處理與機(jī)器學(xué)習(xí)之間有著密切的關(guān)系,因?yàn)闄C(jī)器學(xué)習(xí)提供了一種強(qiáng)大的工具,用于從大
    的頭像 發(fā)表于 12-05 15:21 ?1988次閱讀

    語(yǔ)音識(shí)別與自然語(yǔ)言處理的關(guān)系

    在人工智能的快速發(fā)展中,語(yǔ)音識(shí)別和自然語(yǔ)言處理(NLP)成為了兩個(gè)重要的技術(shù)支柱。語(yǔ)音識(shí)別技術(shù)使得機(jī)器能夠理解人類的語(yǔ)音,而自然語(yǔ)言處理則讓機(jī)器能夠理解、解釋和生成人類
    的頭像 發(fā)表于 11-26 09:21 ?1507次閱讀

    什么是LLM?LLM在自然語(yǔ)言處理中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,自然語(yǔ)言處理(NLP)領(lǐng)域迎來(lái)了革命性的進(jìn)步。其中,大型語(yǔ)言模型(LLM)的出現(xiàn),標(biāo)志著我們對(duì)語(yǔ)言理解能力的
    的頭像 發(fā)表于 11-19 15:32 ?3661次閱讀

    ASR與自然語(yǔ)言處理的結(jié)合

    。以下是對(duì)ASR與自然語(yǔ)言處理結(jié)合的分析: 、ASR與NLP的基本概念 ASR(自動(dòng)語(yǔ)音識(shí)別) : 專注于將人類的語(yǔ)音轉(zhuǎn)換為文字。 涉及從聲音信號(hào)中提取特征,并將這些特征映射到文本。 NLP(
    的頭像 發(fā)表于 11-18 15:19 ?1026次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)在自然語(yǔ)言處理中的應(yīng)用

    自然語(yǔ)言處理是人工智能領(lǐng)域的個(gè)重要分支,它致力于使計(jì)算機(jī)能夠理解、解釋和生成人類語(yǔ)言。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,卷積神經(jīng)網(wǎng)絡(luò)(CNNs)作為一種
    的頭像 發(fā)表于 11-15 14:58 ?807次閱讀

    循環(huán)神經(jīng)網(wǎng)絡(luò)在自然語(yǔ)言處理中的應(yīng)用

    自然語(yǔ)言處理(NLP)是人工智能領(lǐng)域的個(gè)重要分支,它致力于使計(jì)算機(jī)能夠理解、解釋和生成人類語(yǔ)言。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)因其在
    的頭像 發(fā)表于 11-15 09:41 ?816次閱讀

    使用LSTM神經(jīng)網(wǎng)絡(luò)處理自然語(yǔ)言處理任務(wù)

    自然語(yǔ)言處理(NLP)是人工智能領(lǐng)域的個(gè)重要分支,它旨在使計(jì)算機(jī)能夠理解、解釋和生成人類語(yǔ)言。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,特別是循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)及其變體——長(zhǎng)短期記憶(LSTM)網(wǎng)
    的頭像 發(fā)表于 11-13 09:56 ?1165次閱讀

    自然語(yǔ)言處理與機(jī)器學(xué)習(xí)的區(qū)別

    在人工智能的快速發(fā)展中,自然語(yǔ)言處理(NLP)和機(jī)器學(xué)習(xí)(ML)成為了兩個(gè)核心的研究領(lǐng)域。它們都致力于解決復(fù)雜的問題,但側(cè)重點(diǎn)和應(yīng)用場(chǎng)景有所不同。 1. 自然語(yǔ)言處理(NLP) 定義:
    的頭像 發(fā)表于 11-11 10:35 ?1556次閱讀

    使用LLM進(jìn)行自然語(yǔ)言處理的優(yōu)缺點(diǎn)

    自然語(yǔ)言處理(NLP)是人工智能和語(yǔ)言學(xué)領(lǐng)域的個(gè)分支,它致力于使計(jì)算機(jī)能夠理解、解釋和生成人類語(yǔ)言。大型
    的頭像 發(fā)表于 11-08 09:27 ?2458次閱讀

    Llama 3 在自然語(yǔ)言處理中的優(yōu)勢(shì)

    自然語(yǔ)言處理(NLP)的快速發(fā)展中,我們見證了從基于規(guī)則的系統(tǒng)到基于機(jī)器學(xué)習(xí)的模型的轉(zhuǎn)變。隨著深度學(xué)習(xí)技術(shù)的興起,NLP領(lǐng)域迎來(lái)了新的突破。Llama 3,作為個(gè)假設(shè)的先進(jìn)NLP
    的頭像 發(fā)表于 10-27 14:22 ?732次閱讀

    AI大模型自然語(yǔ)言處理中的應(yīng)用

    AI大模型自然語(yǔ)言處理(NLP)中的應(yīng)用廣泛且深入,其強(qiáng)大的語(yǔ)義理解和生成能力為NLP任務(wù)帶來(lái)了顯著的性能提升。以下是對(duì)AI大模型在NLP中應(yīng)用的介紹:
    的頭像 發(fā)表于 10-23 14:38 ?1547次閱讀

    【《大語(yǔ)言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)知識(shí)學(xué)習(xí)

    的表達(dá)方式和生成能力。通過(guò)預(yù)測(cè)文本中缺失的部分或下個(gè)詞,模型逐漸掌握語(yǔ)言的規(guī)律和特征。 常用的模型結(jié)構(gòu) Transformer架構(gòu):大語(yǔ)言
    發(fā)表于 08-02 11:03

    【《大語(yǔ)言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)篇

    。首先結(jié)合ChatGPT的4次迭代升級(jí)介紹了什么是大語(yǔ)言模型,大語(yǔ)言模型的特點(diǎn):參數(shù)多、通用性強(qiáng);之后用較大的篇幅詳細(xì)講解了自然語(yǔ)言
    發(fā)表于 07-25 14:33