一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

詳談深度學(xué)習(xí)系統(tǒng)中實現(xiàn)記憶能力的唯一技術(shù)NTM

如意 ? 來源:OFweek電子工程網(wǎng) ? 作者:學(xué)術(shù)頭條 ? 2020-10-08 14:10 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在計算機科學(xué)中,沒有一門學(xué)科比深度學(xué)習(xí)更能從人類的記憶系統(tǒng)中受益。

自早期以來,在深度學(xué)習(xí)領(lǐng)域,人們就一直致力于對模擬人類記憶的一些關(guān)鍵特征系統(tǒng)進行建模。然而,想要為機器系統(tǒng)建立起類人的記憶結(jié)構(gòu),并非易事。

近日,區(qū)塊鏈分析公司IntoTheBlock CEO、Invector Labs首席科學(xué)家、哥倫比亞大學(xué)客座教授Jesus Rpdriguez發(fā)表文章,談?wù)搹纳窠?jīng)科學(xué)和認知心理學(xué)的角度理解機器的記憶建模。

他認為,神經(jīng)科學(xué)的記憶理論為我們理解智能存儲體系結(jié)構(gòu)的一些主要組成部分提供了基礎(chǔ),同時,人類的記憶不僅僅是大腦物理結(jié)構(gòu)的副產(chǎn)品,而且還深受周圍環(huán)境的影響。

關(guān)記憶的神經(jīng)科學(xué)理論:綁定問題

現(xiàn)代神經(jīng)科學(xué)的記憶理論涉及大腦的三個基本區(qū)域:丘腦(the thalamus)、前額葉(the prefrontal)、皮層和海馬體(cortex &the hippocampus)。

丘腦可以被認為是一個路由器,它負責處理感官信息(視覺、觸覺、語言等),并將其傳遞到大腦的感覺皮層進行評估。經(jīng)過評估的信息最終到達前額葉皮層,進入我們的意識中,形成短期記憶。同時,這些信息也被傳送到海馬體,海馬體將不同的片段分布到不同的皮質(zhì)中,形成長期記憶。

而當今神經(jīng)科學(xué)面臨的最大挑戰(zhàn)之一就是,我們?nèi)绾螌⒎稚⒌挠洃浰槠匦陆M合起來,使其在人們回憶時構(gòu)成連貫的記憶。這就是“綁定問題(the binding problem)”的主要內(nèi)容。

假設(shè)您曾經(jīng)歷一場考試,那么關(guān)于這一事件的記憶將被分解并儲存在大腦的不同區(qū)域中。然而,只需要小小的提示,例如聽到考試提示音或見到當時的同伴,您就能回憶起關(guān)于這堂考試的各種記憶。

這是如何做到的呢?

一種理論認為,記憶碎片是由不斷流過大腦的電磁振動聯(lián)系在一起的。這些振動在記憶碎片之間創(chuàng)造了一個時間(而非空間)聯(lián)系,允許它們同時被激活,因而最后成為凝聚一體的記憶。

關(guān)記憶的認知心理學(xué)理論:啟動與聯(lián)想

此外,為了解釋綁定問題,我們還需要一些超越大腦的結(jié)構(gòu),以評估能夠影響記憶方式的各種心理背景因素。在認知心理學(xué)中,試圖解釋聯(lián)想記憶本質(zhì)的主要理論之一被稱為啟動效應(yīng)(the Priming Effect)。

設(shè)想一下,當您聽到“考試”這個詞的時候,首先想到的是什么?可能是“書籍”,可能是某個日期,甚至可能是“興奮感”(手動狗頭)。由此可見,僅僅是一個簡單的詞語,就可以喚起人的一系列復(fù)雜情緒甚至是其他相關(guān)的詞語。而這個過程實際就是:我們正在有效地想起相關(guān)的事物,或者說,我們正在“啟動”其他記憶。

這一實驗中最引人注目的其實是,人們根據(jù)提示檢索出相關(guān)單詞或記憶的速度有多快。在心理學(xué)中,這種現(xiàn)象也被稱為聯(lián)想一致化(Associatively Coherent)。

而且,啟動效應(yīng)不僅適用于詞匯,還適用于情緒、身體反應(yīng)、本能等認知現(xiàn)象。啟動效應(yīng)告訴我們,記憶不僅是由主動聯(lián)想方法來回憶的,而且是由“被啟動的想法”來回憶的。

認知心理學(xué)的另一個重要內(nèi)容則是我們回憶起特定事件的頻率。

例如,如果我問你“在過去的十年里參加了多少場考試?” 如果你剛好最近就參加過一次考試或者特別快地得出答案者,那么這個數(shù)字很能被高估。相反,如果你并不喜歡上一次的考試經(jīng)歷,那么這個數(shù)字可能被低估。這個認知過程被稱為可得性捷思法(the Availability Heuristic),它解釋了我們的記憶是如何被快速獲得的答案所深深影響。

深度學(xué)習(xí)的記憶機制:神經(jīng)圖靈機

那么深度學(xué)習(xí)算法具體該如何模仿上述這些理論從而形成類人記憶呢?答案其實不難得出:

a) 把一個內(nèi)存分成若干段,不同片段描述不同的知識領(lǐng)域

b) 將分散的片段重新組合成連貫的信息結(jié)構(gòu)

c) 根據(jù)上下文和不直接相關(guān)的信息以及外部數(shù)據(jù)引用來檢索數(shù)據(jù)

同時,為了了解深度學(xué)習(xí)算法中的記憶相關(guān)性,我們應(yīng)該區(qū)分內(nèi)隱記憶implicit memory和外顯記憶Explicit Memory。隱性知識通常是潛意識的,因此很難解釋,例如識別圖片中的猴子或口語句子中的語氣和情緒。顯性知識則很容易以陳述性方式建模。例如,“猴子是一種動物”或“某些形容詞具有攻擊性”,這都是顯性知識的典型例子。

再想象一下傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),它們往往有數(shù)百萬個相互連接的節(jié)點,卻缺乏一個工作記憶系統(tǒng),用來存儲已推斷出的知識片段及其相互關(guān)系,以便從網(wǎng)絡(luò)的不同層加入新信息。

而在這一領(lǐng)域,最流行的技術(shù)之一是神經(jīng)圖靈機(Neural Turing Machines,NTM),由DeepMind于2014年引入。NTM也屬于深層神經(jīng)網(wǎng)絡(luò), 但是它擴展出一個具有存儲完整向量的記憶單元,并使用直觀推斷(heuristics)來讀寫信息。

例如,NTM實現(xiàn)了一種稱為基于內(nèi)容的尋址機制,它可以根據(jù)輸入信息來檢索向量,這與人類基于文字經(jīng)驗來回憶相關(guān)記憶的方式相似。

此外,NTM還包括一種機制,能夠根據(jù)內(nèi)存單元被尋址的頻率來增加其顯著性。

詳談深度學(xué)習(xí)系統(tǒng)中實現(xiàn)記憶能力的唯一技術(shù)NTM

NTM并不是在深度學(xué)習(xí)系統(tǒng)中實現(xiàn)記憶能力的唯一技術(shù),但它無疑是最受歡迎的技術(shù)之一。

模仿人類記憶的生理和心理功能并不是一件容易的事,這已經(jīng)成為深度學(xué)習(xí)領(lǐng)域中最重要的研究領(lǐng)域之一。
責編AJX

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1807

    文章

    49029

    瀏覽量

    249617
  • 記憶
    +關(guān)注

    關(guān)注

    0

    文章

    6

    瀏覽量

    13936
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5561

    瀏覽量

    122805
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    深度學(xué)習(xí)賦能:正面吊車載箱號識別系統(tǒng)的核心技術(shù)

    支撐。 深度學(xué)習(xí)驅(qū)動的智能識別 傳統(tǒng)OCR技術(shù)易受光線、污損或箱體圖案干擾,而新代識別系統(tǒng)通過深度卷積神經(jīng)網(wǎng)絡(luò)(CNN)和注意力機制,
    的頭像 發(fā)表于 05-07 10:10 ?205次閱讀

    軍事應(yīng)用深度學(xué)習(xí)的挑戰(zhàn)與機遇

    人工智能尤其是深度學(xué)習(xí)技術(shù)的最新進展,加速了不同應(yīng)用領(lǐng)域的創(chuàng)新與發(fā)展。深度學(xué)習(xí)技術(shù)的發(fā)展深刻影響
    的頭像 發(fā)表于 02-14 11:15 ?540次閱讀

    長城汽車Coffee Agent與DeepSeek實現(xiàn)技術(shù)深度融合

    研發(fā)的大模型,此次融合了DeepSeek R1模型的特點,使其在理解、思考和推理能力上得到了顯著提升。這一技術(shù)融合,不僅增強了Coffee Agent的智能性,也為其在更多場景下的應(yīng)用提供了可能。 DeepSeek的快速上車,得益于長城汽車在AI子
    的頭像 發(fā)表于 02-10 09:41 ?827次閱讀

    AI自動化生產(chǎn):深度學(xué)習(xí)在質(zhì)量控制的應(yīng)用

    生產(chǎn)效率、保證產(chǎn)品質(zhì)量方面展現(xiàn)出非凡的能力。阿丘科技「AI干貨補給站」推出《AI自動化生產(chǎn):深度學(xué)習(xí)在質(zhì)量控制的應(yīng)用》文章,探討深度
    的頭像 發(fā)表于 01-17 16:35 ?699次閱讀
    AI自動化生產(chǎn):<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>在質(zhì)量控制<b class='flag-5'>中</b>的應(yīng)用

    記憶示波器的原理和應(yīng)用

    和處理技術(shù),能夠實現(xiàn)對被測信號的精確測量和分析。在實際應(yīng)用,用戶可以根據(jù)具體需求選擇合適的記憶示波器型號和功能。
    發(fā)表于 01-06 15:50

    GPU在深度學(xué)習(xí)的應(yīng)用 GPUs在圖形設(shè)計的作用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)作為其核心部分,已經(jīng)成為推動技術(shù)進步的重要力量。GPU(圖形處理單元)在深度
    的頭像 發(fā)表于 11-19 10:55 ?1629次閱讀

    NPU在深度學(xué)習(xí)的應(yīng)用

    設(shè)計的硬件加速器,它在深度學(xué)習(xí)的應(yīng)用日益廣泛。 1. NPU的基本概念 NPU是種專門針對深度學(xué)習(xí)
    的頭像 發(fā)表于 11-14 15:17 ?1922次閱讀

    pcie在深度學(xué)習(xí)的應(yīng)用

    與主機系統(tǒng)連接,提供必要的計算支持。 2. PCIe技術(shù)概述 PCIe是種點對點串行連接,用于計算機內(nèi)部硬件組件之間的連接。它以其高速數(shù)據(jù)傳輸能力和低延遲特性而聞名,是連接高性能硬件
    的頭像 發(fā)表于 11-13 10:39 ?1359次閱讀

    深度學(xué)習(xí)框架的LSTM神經(jīng)網(wǎng)絡(luò)實現(xiàn)

    長短期記憶(LSTM)網(wǎng)絡(luò)是種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),能夠學(xué)習(xí)長期依賴信息。與傳統(tǒng)的RNN相比,LSTM通過引入門控機制來解決梯度消失和梯度爆炸問題,使其在處理序列數(shù)據(jù)時更為有效。在自然語言
    的頭像 發(fā)表于 11-13 10:16 ?1068次閱讀

    GPU深度學(xué)習(xí)應(yīng)用案例

    GPU在深度學(xué)習(xí)的應(yīng)用廣泛且重要,以下是些GPU深度學(xué)習(xí)應(yīng)用案例:
    的頭像 發(fā)表于 10-27 11:13 ?1384次閱讀

    激光雷達技術(shù)的基于深度學(xué)習(xí)的進步

    信息。這使得激光雷達在自動駕駛、無人機、機器人等領(lǐng)域具有廣泛的應(yīng)用前景。 二、深度學(xué)習(xí)技術(shù)的發(fā)展 深度學(xué)習(xí)是機器
    的頭像 發(fā)表于 10-27 10:57 ?1073次閱讀

    FPGA加速深度學(xué)習(xí)模型的案例

    :DE5Net_Conv_Accelerator 應(yīng)用場景 :面向深度學(xué)習(xí)的開源項目,實現(xiàn)了AlexNet的第層卷積運算加速。 技術(shù)特點
    的頭像 發(fā)表于 10-25 09:22 ?1238次閱讀

    AI大模型與深度學(xué)習(xí)的關(guān)系

    人類的學(xué)習(xí)過程,實現(xiàn)對復(fù)雜數(shù)據(jù)的學(xué)習(xí)和識別。AI大模型則是指模型的參數(shù)數(shù)量巨大,需要龐大的計算資源來進行訓(xùn)練和推理。深度學(xué)習(xí)算法為AI大模型
    的頭像 發(fā)表于 10-23 15:25 ?2900次閱讀

    FPGA做深度學(xué)習(xí)能走多遠?

    。 總之,F(xiàn)PGA 在深度學(xué)習(xí)領(lǐng)域具有很大的發(fā)展?jié)摿蜋C會,但也面臨些挑戰(zhàn)。隨著技術(shù)的不斷進步和市場的不斷發(fā)展,F(xiàn)PGA 在深度
    發(fā)表于 09-27 20:53

    深度識別人臉識別在任務(wù)為什么有很強大的建模能力

    深度學(xué)習(xí)人臉識別技術(shù)是人工智能領(lǐng)域中的個重要分支,它利用深度學(xué)習(xí)算法來識別和驗證人臉。這項
    的頭像 發(fā)表于 09-10 14:53 ?842次閱讀