一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

MIT的SpAtten架構(gòu)將注意力機(jī)制用于高級(jí)NLP

星星科技指導(dǎo)員 ? 來源:嵌入式計(jì)算設(shè)計(jì) ? 作者:Saumitra Jagdale ? 2022-07-01 10:43 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

處理人工生成的文本數(shù)據(jù)一直是一項(xiàng)重要但具有挑戰(zhàn)性的任務(wù),因?yàn)槿祟愓Z言對(duì)于機(jī)器理解往往具有自然的魯棒性。

盡管如此,仍然有許多高效的 NLP 模型,例如 Google 的 BERT 和 Open AI 的 GPT2,它們的功能是通過高級(jí)處理和計(jì)算來理解這些數(shù)據(jù)。這些模型在搜索引擎中找到了它們的應(yīng)用,因?yàn)樗阉髅钚枰c相關(guān)的來源和頁面匹配,而與術(shù)語的性質(zhì)無關(guān)。

麻省理工學(xué)院的 SpAtten 學(xué)習(xí)系統(tǒng)通過其優(yōu)化的軟件硬件設(shè)計(jì)專注于高效的搜索預(yù)測(cè),從而以更少的計(jì)算能力進(jìn)行高級(jí)自然語言處理。因此,SpAtten 系統(tǒng)的架構(gòu)取代了高端 CPUGPU 的組合,它們共同輸出類似于 MIT 的 SpAtten 學(xué)習(xí)系統(tǒng)的效率。

SpAtten 學(xué)習(xí)系統(tǒng)中的注意力機(jī)制

當(dāng)數(shù)據(jù)量大時(shí),注意力機(jī)制在自然語言處理中起著至關(guān)重要的作用。特別是在文本數(shù)據(jù)包含對(duì)建??赡懿皇呛苤匾母鞣N特征的情況下。這可能會(huì)浪費(fèi)系統(tǒng)的整體計(jì)算。因此,神經(jīng)網(wǎng)絡(luò)輸入層中的注意力機(jī)制從文本數(shù)據(jù)中動(dòng)態(tài)提取相關(guān)特征,可以優(yōu)化算法在廣泛數(shù)據(jù)集上的處理。

SpAtten 使用注意力機(jī)制算法去除在 NLP 方面權(quán)重較小的單詞。因此,它有選擇地從輸入的文本數(shù)據(jù)中挑選出相關(guān)的關(guān)鍵詞。這避免了對(duì)不必要的文本數(shù)據(jù)的實(shí)時(shí)處理,從而節(jié)省了系統(tǒng)的整體計(jì)算時(shí)間。然而,這種處理提供了效率和準(zhǔn)確性,但它的代價(jià)是設(shè)計(jì)良好的硬件與這種復(fù)雜的算法兼容。

因此,麻省理工學(xué)院一直致力于其新 SpAtten 學(xué)習(xí)系統(tǒng)的軟件和硬件方面。設(shè)計(jì)的硬件致力于優(yōu)化這些復(fù)雜的算法,以減少處理和內(nèi)存訪問。這些技術(shù)在用于文本數(shù)據(jù)時(shí)克服了構(gòu)建具有高效處理速度和能力的系統(tǒng)的挑戰(zhàn)。因此,硬件“以更少的計(jì)算能力實(shí)現(xiàn)了精簡的 NLP”。

SpAtten 架構(gòu)的優(yōu)化技術(shù)

循環(huán)和卷積神經(jīng)網(wǎng)絡(luò)被認(rèn)為是深度學(xué)習(xí)模型的理想選擇,但麻省理工學(xué)院關(guān)于“SpAtten: Efficient Sparse Attention Architecture with Cascade Token and Head Pruning”的研究論文讓我們注意到注意力機(jī)制可以比這些網(wǎng)絡(luò)表現(xiàn)更好,如前一部分所述。

該架構(gòu)支持級(jí)聯(lián)修剪技術(shù),該技術(shù)對(duì)令牌??和頭進(jìn)行操作,而不是傳統(tǒng)方法中使用的權(quán)重。正如術(shù)語“剪枝”暗示移除令牌一樣,一旦從層中移除令牌/頭,那么它將永遠(yuǎn)不會(huì)在后續(xù)層中被處理,因?yàn)樗挥谰谩凹糁Α被驈南到y(tǒng)中移除。這就是為什么優(yōu)化數(shù)據(jù)的實(shí)時(shí)處理并且系統(tǒng)適應(yīng)輸入實(shí)例的原因。

該系統(tǒng)使用漸進(jìn)式量化技術(shù)來減少 DRAM 訪問。僅當(dāng) MSB 不足以執(zhí)行量化時(shí),該技術(shù)才對(duì) LSB 起作用。然而,這是以計(jì)算為代價(jià)的,但內(nèi)存訪問顯著減少。因此,它使注意力層動(dòng)態(tài)和自適應(yīng)以優(yōu)化 DRAM 訪問。該系統(tǒng)還帶有內(nèi)置的 SRAM,用于存儲(chǔ)可在眾多查詢中重復(fù)使用的已刪除令牌。

通用的 AI 加速器、GPU、TPU 和 NPU 即使支持高計(jì)算能力也無法實(shí)現(xiàn)這些技術(shù),因?yàn)檫@些組件只能增強(qiáng)現(xiàn)有的傳統(tǒng)神經(jīng)網(wǎng)絡(luò),包括 CNN 和 RNN。因此,麻省理工學(xué)院設(shè)計(jì)了專門的硬件來實(shí)現(xiàn)這些優(yōu)化算法。

SpAtten 學(xué)習(xí)系統(tǒng)的分析

SpAtten 硬件架構(gòu)的模擬揭示了其與競爭處理器相比的高處理能力。麻省理工學(xué)院表示:“SpAtten 的運(yùn)行速度比第二好的競爭對(duì)手(TITAN Xp GPU)快 100 倍以上。此外,SpAtten 的能源效率是其競爭對(duì)手的 1000 多倍,這表明 SpAtten 可以幫助減少 NLP 的大量電力需求?!?/p>

Google 的 BERT 和 Open AI 的 GPT2 模型也使用類似的注意力機(jī)制,但是復(fù)雜的判別和生成技術(shù)會(huì)導(dǎo)致延遲和延遲。MIT 的 SpAtten 是 NLP 算法和專用于注意力機(jī)制的專用硬件的組合。這種組合控制了標(biāo)準(zhǔn) CPU 在 GPT-2 或 BERT 上運(yùn)行時(shí)消耗的高功耗。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 處理器
    +關(guān)注

    關(guān)注

    68

    文章

    19884

    瀏覽量

    234996
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    4937

    瀏覽量

    131186
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5560

    瀏覽量

    122769
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    經(jīng)顱電刺激適應(yīng)癥之tDCS治療注意力缺陷ADHD

    ADHD是常見神經(jīng)行為障礙,癥狀包括注意力不集中、多動(dòng)和沖動(dòng),兒童和青少年患病率為5%-7.2%,成人在1%-10%,男孩多于女孩,成年后部分癥狀會(huì)持續(xù),引發(fā)多種并發(fā)癥,給個(gè)人、家庭和社會(huì)帶來
    的頭像 發(fā)表于 04-22 19:49 ?143次閱讀
    經(jīng)顱電刺激適應(yīng)癥之tDCS治療<b class='flag-5'>注意力</b>缺陷ADHD

    橫空出世!容芯致遠(yuǎn)創(chuàng)新“智算整機(jī)架構(gòu)”融合DeepSeek應(yīng)用

    DeepSeek火爆全球,并引發(fā)算力行業(yè)鏈?zhǔn)椒磻?yīng)。借助混合專家模型(MOE)架構(gòu)、多頭潛在注意力機(jī)制(MLA)等算法創(chuàng)新,DeepSeek顯著降低大模型計(jì)算成本,打破了業(yè)界對(duì)高算GP
    的頭像 發(fā)表于 02-28 13:48 ?380次閱讀
    橫空出世!容芯致遠(yuǎn)創(chuàng)新“智算整機(jī)<b class='flag-5'>架構(gòu)</b>”融合DeepSeek應(yīng)用

    DeepSeek推出NSA機(jī)制,加速長上下文訓(xùn)練與推理

    近日,DeepSeek公司宣布推出一種全新的稀疏注意力機(jī)制——NSA(Native Sparse Attention)。據(jù)DeepSeek介紹,NSA旨在與現(xiàn)代硬件實(shí)現(xiàn)高度一致,并且具備本機(jī)可訓(xùn)練
    的頭像 發(fā)表于 02-19 14:01 ?630次閱讀

    如何使用MATLAB構(gòu)建Transformer模型

    LanguageProcessing, NLP)中的序列到序列任務(wù),如機(jī)器翻譯。Transformer 通過引入自注意力機(jī)制使得處理長距離依賴關(guān)系時(shí)變得高效。因此 Vaswani 等人的論文強(qiáng)調(diào)“
    的頭像 發(fā)表于 02-06 10:21 ?4000次閱讀
    如何使用MATLAB構(gòu)建Transformer模型

    AN3408-如何12位ADC用于敏電阻

    電子發(fā)燒友網(wǎng)站提供《AN3408-如何12位ADC用于敏電阻.pdf》資料免費(fèi)下載
    發(fā)表于 01-21 14:38 ?0次下載
    AN3408-如何<b class='flag-5'>將</b>12位ADC<b class='flag-5'>用于</b><b class='flag-5'>力</b>敏電阻

    ADS1299S是否推薦有與DEMO匹配的傳感器頭?

    我們目前有個(gè)項(xiàng)目主要用于檢測(cè)幼兒的注意力,請(qǐng)問一下,TI ADS1299S是否推薦有與DEMO匹配的傳感器頭?如果有,請(qǐng)推薦。
    發(fā)表于 11-26 08:30

    《算芯片 高性能 CPUGPUNPU 微架構(gòu)分析》第3篇閱讀心得:GPU革命:從圖形引擎到AI加速器的蛻變

    昇騰采用達(dá)芬奇架構(gòu),在AI Core中集成了標(biāo)量/向量/張量處理單元。我注意到書中對(duì)TPU v4光學(xué)芯片互聯(lián)的分析特別深入,這種創(chuàng)新或重塑未來AI集群的架構(gòu)范式。中國古語云\"大道至
    發(fā)表于 11-24 17:12

    什么是LLM?LLM在自然語言處理中的應(yīng)用

    所未有的精度和效率處理和生成自然語言。 LLM的基本原理 LLM基于深度學(xué)習(xí)技術(shù),尤其是變換器(Transformer)架構(gòu)。變換器模型因其自注意力(Self-Attention)機(jī)制而聞名,這種
    的頭像 發(fā)表于 11-19 15:32 ?3633次閱讀

    一種基于因果路徑的層次圖卷積注意力網(wǎng)絡(luò)

    機(jī)電系統(tǒng)中數(shù)據(jù)驅(qū)動(dòng)故障檢測(cè)模型的性能和可解釋性。引入了一種混合因果發(fā)現(xiàn)算法來發(fā)現(xiàn)監(jiān)測(cè)變量之間的繼承因果關(guān)系。順序連接因果變量的因果路徑用作接收?qǐng)?,使用多尺度卷積來提取特征?;诜謱?b class='flag-5'>注意力機(jī)制來聚合
    的頭像 發(fā)表于 11-12 09:52 ?1056次閱讀
    一種基于因果路徑的層次圖卷積<b class='flag-5'>注意力</b>網(wǎng)絡(luò)

    Llama 3 模型與其他AI工具對(duì)比

    、技術(shù)架構(gòu) Llama 3模型 采用了最新的Transformer架構(gòu),并結(jié)合了自注意力機(jī)制和分組查詢關(guān)注(GQA)機(jī)制。 引入了高效的to
    的頭像 發(fā)表于 10-27 14:37 ?1056次閱讀

    Llama 3 在自然語言處理中的優(yōu)勢(shì)

    領(lǐng)域的最新進(jìn)展。 1. 高度的上下文理解能力 Llama 3的一個(gè)顯著優(yōu)勢(shì)是其對(duì)上下文的深刻理解。傳統(tǒng)的NLP模型往往在處理復(fù)雜的語言結(jié)構(gòu)和上下文依賴性時(shí)遇到困難。Llama 3通過使用先進(jìn)的注意力機(jī)制和上下文編碼技術(shù),能夠捕捉
    的頭像 發(fā)表于 10-27 14:22 ?726次閱讀

    未來AI大模型的發(fā)展趨勢(shì)

    上得到了顯著提升。未來,算法和架構(gòu)的進(jìn)一步優(yōu)化推動(dòng)AI大模型在性能上實(shí)現(xiàn)新的突破。 多頭自注意力機(jī)制、前饋神經(jīng)網(wǎng)絡(luò)等關(guān)鍵技術(shù)的改進(jìn),增強(qiáng)
    的頭像 發(fā)表于 10-23 15:06 ?1929次閱讀

    【「算芯片 | 高性能 CPU/GPU/NPU 微架構(gòu)分析」閱讀體驗(yàn)】--全書概覽

    詳細(xì)。了解算芯片機(jī)制原理、架構(gòu)組織形式邏輯等,對(duì)我們軟件開發(fā)算芯片方案能起到很好的促進(jìn)作用。后面就是進(jìn)行具體的閱讀與學(xué)習(xí)理解了。
    發(fā)表于 10-15 22:08

    2024 年 19 種最佳大型語言模型

    ,當(dāng)時(shí)一篇題為“通過聯(lián)合學(xué)習(xí)對(duì)齊和翻譯的神經(jīng)機(jī)器翻譯”的研究論文中引入了注意力機(jī)制(一種旨在模仿人類認(rèn)知注意力的機(jī)器學(xué)習(xí)技術(shù))。2017年,另一篇論文“注意力就是你
    的頭像 發(fā)表于 08-30 12:56 ?979次閱讀
    2024 年 19 種最佳大型語言模型

    請(qǐng)問AURIX TC3xx tricore架構(gòu)下浮點(diǎn)運(yùn)算和浮點(diǎn)數(shù)小數(shù)點(diǎn)去掉變成整數(shù)來計(jì)算哪種方式更加節(jié)省算?

    AURIX TC3xx tricore架構(gòu)下浮點(diǎn)運(yùn)算和浮點(diǎn)數(shù)小數(shù)點(diǎn)去掉變成整數(shù)來計(jì)算哪種方式更加節(jié)省算? 比如一個(gè)浮點(diǎn)數(shù)12.89V,如果將其寫成12890mV,再參與計(jì)算,哪種方式更加節(jié)省算
    發(fā)表于 08-26 06:54