一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何在神經(jīng)網(wǎng)絡(luò)中表示部分-整體層次結(jié)構(gòu)

深度學(xué)習(xí)自然語言處理 ? 來源:AI科技評論 ? 作者:AI科技評論 ? 2021-03-05 15:53 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

Twitter 上發(fā)現(xiàn)了一篇Hinton的新論文,作者只有Hinton本人,這篇論文沒有介紹具體的算法,而是描繪了一個關(guān)于表示的宏觀構(gòu)想:如何在神經(jīng)網(wǎng)絡(luò)中表示部分-整體層次結(jié)構(gòu)。

AI科技評論在Twitter 上發(fā)現(xiàn)了一篇Hinton的新論文,作者只有Hinton本人,這篇論文沒有介紹具體的算法,而是描繪了一個關(guān)于表示的宏觀構(gòu)想:如何在神經(jīng)網(wǎng)絡(luò)中表示部分-整體層次結(jié)構(gòu)。

值得一提的是,分享論文的Kosta Derpanis也在推特里介紹了Hinton的第一篇論文:“Using Relaxation To Find A Puppy”。Kosta Derpanis在論文里標(biāo)記了一句話:“局部的模糊性必須必須通過尋找最佳的全局解釋來解決。”并表示,Hinton現(xiàn)在又回到了最初的起點。

Hinton第一篇論文:https://www.cs.toronto.edu/~hinton/absps/puppet.pdf

局部和整體的一致性表示似乎一直是Hinton的研究重點。比如,膠囊網(wǎng)絡(luò)通過局部到整體的動態(tài)路徑選擇一致性來學(xué)習(xí)識別,近期Hinton還將其擴(kuò)展到了無監(jiān)督學(xué)習(xí),并應(yīng)用了Transformer架構(gòu);對比學(xué)習(xí)則學(xué)習(xí)一種表示,使得同一幅圖像的的各個局部具有相似的表示;認(rèn)知神經(jīng)科學(xué)出身的Hinton還一直堅持探索著大腦的學(xué)習(xí)機(jī)制,比如back relaxation試圖在自頂向下表示和自底向上表示之間產(chǎn)生一致性,而這又和對比學(xué)習(xí)有聯(lián)系。

在這篇新論文中,Hinton又將為我們描繪出怎樣一幅圖景呢?

論文鏈接:https://arxiv.org/pdf/2102.12627.pdf

這篇論文沒有描述工作系統(tǒng),而是單單提出了一個關(guān)于表示的想法。這個想法能夠把Transformer、神經(jīng)場(neural fields)、對比表示學(xué)習(xí)、蒸餾和膠囊等先進(jìn)觀點整合到一個名為“GLOM 1”的設(shè)想系統(tǒng)中。

一個具有固定架構(gòu)的神經(jīng)網(wǎng)絡(luò)如何將一張圖像解析成一個整體的分級體系(其中,每張圖像都有不同的結(jié)構(gòu))?針對這個問題,GLOM 給出了一個簡單的答案,即使用相同向量的孤島來表示解析樹中的節(jié)點。如果 GLOM 真的能夠正常運(yùn)轉(zhuǎn),那么,當(dāng)它在視覺或語言上應(yīng)用時,它能夠極大地提高類似Transformer的系統(tǒng)所生成的表示的可解釋性。

“GLOM”一詞源自一句俗語“ glom together”(“抓”到一起),可能是來源于“凝聚”(agglomerate)一詞。

1

觀點總覽

心理學(xué)提供了一個有力證據(jù),表明:人們會將視覺場景解析為整個分層體系,并將部分與整體之間視角不變的空間關(guān)系,建模為他們分配給該部分和整體的內(nèi)在坐標(biāo)系之間的坐標(biāo)轉(zhuǎn)換。

如果我們想要建立像人類一樣理解圖像的神經(jīng)網(wǎng)絡(luò),那么我們需要想明白:神經(jīng)網(wǎng)絡(luò)是如何表示部分-整體的分層體系?這很困難,因為一個真實的神經(jīng)網(wǎng)絡(luò)無法將一組神經(jīng)元進(jìn)行動態(tài)分配,以表示解析樹中的一個節(jié)點。

神經(jīng)網(wǎng)絡(luò)無法動態(tài)分配神經(jīng)元,也是一系列用到“膠囊”觀點的模型所出現(xiàn)的原因。這些模型會作出如下假設(shè):被稱為“膠囊”的一組神經(jīng)元會永遠(yuǎn)成為圖像特定區(qū)域中的某一特定類型的一部分。通過激活這些預(yù)先存在的、類型特定的膠囊子集,以及膠囊之間的適合連接,可以構(gòu)建一個解析樹。

這篇論文介紹了一種非常不同的方式,可以使用膠囊來表示神經(jīng)網(wǎng)絡(luò)中的部分-整體分層體系。

雖然這篇論文主要討論了單個靜態(tài)圖像的感知,但我們可以簡單地將 GLOM 理解為用于處理一系列幀的管道,因此靜態(tài)圖像可以被視為一系列相同的幀。

GLOM 架構(gòu)由許多列(column)組成,所有列均使用完全相同的權(quán)重。每一列都是一堆空間局部自動編碼器,這些編碼器會學(xué)習(xí)小圖像塊(image patch)中的多個不同級別的表示。每個自動編碼器都會使用多層自下而上的編碼器和多層自上而下的解碼器,將同一個級別的嵌入轉(zhuǎn)換為相鄰級別的嵌入。這些級別與部分-整體分層體系中的級別一一對應(yīng)。比如,顯示一張人臉圖像時,一個單列可能會收斂到表示一個鼻孔、一個鼻子、一張臉和一個人的嵌入向量上。圖 1 顯示了不同級別的嵌入如何在單列中進(jìn)行交互。

71b90fda-7c22-11eb-8b86-12bb97331649.png

圖1:單列中,GLOM架構(gòu)的三個相鄰級別的自下而上、自上而下、同列的交互。

代表自下而上和自上而下交互的藍(lán)色和紅色箭頭是由兩個具有多個隱藏層的不同神經(jīng)網(wǎng)絡(luò)來實現(xiàn)。這些網(wǎng)絡(luò)在成對的級別中有所差異,但它們可以跨列、跨時間步分享。自上而下的網(wǎng)絡(luò)也許應(yīng)該使用正弦單位。對于靜態(tài)圖,綠色箭頭可以簡單看作按比例縮放的殘差連接,以實現(xiàn)每個級別的嵌入的時間平滑。對于視頻,綠色連接可以是基于多個先前狀態(tài)的膠囊來學(xué)習(xí)時間動態(tài)的神經(jīng)網(wǎng)絡(luò)。不同列中,相同級別的的嵌入向量之間的交互可以通過非自適應(yīng)的、注意力加權(quán)的局部平滑器(圖中沒有顯示)來實現(xiàn)。

圖 1 沒有顯示不同列中同一級別的嵌入之間的交互。這比同一列內(nèi)的交互要簡單得多,因為它們不需要執(zhí)行部分-整體坐標(biāo)轉(zhuǎn)換。它們就像代表一個多頭 transformer 中不同單詞片段的列之間的注意力加權(quán)交互,但更簡單,因為查詢、鍵和值向量都與嵌入向量相同。列與列之間的交互作用是,通過使一個級別的每個嵌入向量向附近位置的其他類似向量回歸,從而在該級別上產(chǎn)生具有相同嵌入的島。這將創(chuàng)建多個局部“回音室”,其中一個級別的嵌入主要聽從其他想法相似的嵌入。

在每一段離散時間和每一列中,一個級別的嵌入將被更新為擁有四個貢獻(xiàn)(如下)的加權(quán)平均值:

自下而上的神經(jīng)網(wǎng)絡(luò)在前一個時間作用于下層級別的嵌入而產(chǎn)生的預(yù)測;

自上而下的神經(jīng)網(wǎng)絡(luò)在前一個時間作用于上層級別的嵌入而產(chǎn)生的預(yù)測;

上一個時間步的嵌入向量;

前一個時間在附近列相同級別的嵌入的注意力加權(quán)平均值。

對于靜態(tài)圖,一個級別的嵌入應(yīng)隨著時間的流逝而沉淀,以生成擁有幾乎相同向量的不同島。如圖 2 所示, 這些島在更高的級別上應(yīng)該更大。使用相似的島來表示圖像的解析,避免了需要分配神經(jīng)元組來動態(tài)表示正在運(yùn)行的解析樹的節(jié)點,或預(yù)先為所有可能的節(jié)點設(shè)置神經(jīng)元的情況。GLOM 系統(tǒng)不是分配神經(jīng)硬件來表示解析樹中的節(jié)點,或為節(jié)點提供指向其祖先和后代的指針,而是分配了一個合適的活動向量來表示該節(jié)點,并在屬于該節(jié)點的所有位置上使用了相同的活動向量。訪問節(jié)點的祖先和后代的能力是通過自下而上和自上而下的神經(jīng)網(wǎng)絡(luò)實現(xiàn)的,而不是通過使用 RAM 檢查表格來實現(xiàn)的。

71fcc09a-7c22-11eb-8b86-12bb97331649.png

圖 2:在特定時間里,6 個相鄰列的嵌入。

圖 2 所顯示的所有位置都屬于同一對象,且場景級別尚未在共享矢量上定居。通過將向量劃分為部分-整體分層體系中每個級別的單獨部分,然后將一個級別的的高維嵌入向量顯示為二維向量,那么每個位置的完整嵌入向量就可以顯示出來。這可以很好地解釋不同位置的嵌入向量的對齊。圖 2 所示的不同級別上向量相同的島,實則表示一棵解析樹。但是,相同的島比短語結(jié)構(gòu)語法要強(qiáng)大得多。比如,在“這是否會減慢短語結(jié)構(gòu)語法的速度”的問題上,它們可以毫不費(fèi)力地表示斷開連接的對象。

就像BERT一樣,整個 GLOM 系統(tǒng)可以進(jìn)行端到端的訓(xùn)練,以在最后的時間步從缺少某一區(qū)域的輸入圖像中重建圖像。但是,目標(biāo)函數(shù)還包含兩個倡導(dǎo)在每個級別上向量幾乎相同的島的正則化器(regularizer)。正則化器只是一個級別的新嵌入與自下而上、自上而下的預(yù)測之間的一致性。提高這個一致性能夠促進(jìn)局部島的形成。

722ee048-7c22-11eb-8b86-12bb97331649.png

圖 4:這是將圖 1 所示架構(gòu)進(jìn)行可視化的另一種方式,可以使該架構(gòu)與 transformer 之間的關(guān)系更加明顯。圖 1 中表示時間的水平尺寸變成了圖 4 中表示層的垂直尺寸。此時,在每一個位置,每一層都有部分-整體分層體系中所有級別的嵌入。這與垂直壓縮圖 1 中單個時間片內(nèi)的級別描述一致。

靜態(tài)圖的解釋僅需要使用該架構(gòu)進(jìn)行一次前向傳遞。這里將所有級別特定的自下而上和自上而下的神經(jīng)網(wǎng)絡(luò)都顯示為單個神經(jīng)網(wǎng)絡(luò)。圖 5 顯示了另一種查看 GLOM 架構(gòu)的自下而上和自上而下的神經(jīng)網(wǎng)絡(luò)。

7273be70-7c22-11eb-8b86-12bb97331649.png

圖 5:GLOM 在同一個位置(即單列的一部分)的兩個相鄰層。在前向傳遞的過程中,L 級的嵌入向量通過多層自下而上的神經(jīng)網(wǎng)絡(luò)從上一層 L-1 級的嵌入向量中接收輸入。L 級還通過多層自上而下的神經(jīng)網(wǎng)絡(luò)從上一層 L+1 級的嵌入中接收輸入。在前向傳遞的過程中,對上一層 L+1 級的依賴取得了自上而下的效果。嵌入在 t+1 層中的 L 級還取決于嵌入在 t 層中的 L 級嵌入和 t 層中其他附近位置的 L 級嵌入的注意力加權(quán)總和。圖中沒有顯示級內(nèi)的交互。

2

責(zé)任編輯:lq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4812

    瀏覽量

    103232
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4705

    瀏覽量

    95111
  • 函數(shù)
    +關(guān)注

    關(guān)注

    3

    文章

    4378

    瀏覽量

    64561

原文標(biāo)題:Hinton一作新論文:如何在神經(jīng)網(wǎng)絡(luò)中表示“部分-整體層次結(jié)構(gòu)”?

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    BP神經(jīng)網(wǎng)絡(luò)網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計原則

    BP(back propagation)神經(jīng)網(wǎng)絡(luò)是一種按照誤差逆向傳播算法訓(xùn)練的多層前饋神經(jīng)網(wǎng)絡(luò),其網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計原則主要基于以下幾個方面: 一、層次
    的頭像 發(fā)表于 02-12 16:41 ?707次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)與工作機(jī)制

    結(jié)構(gòu)與工作機(jī)制的介紹: 一、LSTM神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu) LSTM神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)主要包括以下幾個部分
    的頭像 發(fā)表于 11-13 10:05 ?1555次閱讀

    神經(jīng)網(wǎng)絡(luò)三層結(jié)構(gòu)的作用是什么

    神經(jīng)網(wǎng)絡(luò)是一種受人腦啟發(fā)的計算模型,能夠模擬人腦神經(jīng)元網(wǎng)絡(luò)的工作原理。神經(jīng)網(wǎng)絡(luò)由多個層次神經(jīng)元組成,每個
    的頭像 發(fā)表于 07-11 11:03 ?1968次閱讀

    遞歸神經(jīng)網(wǎng)絡(luò)和循環(huán)神經(jīng)網(wǎng)絡(luò)的模型結(jié)構(gòu)

    遞歸神經(jīng)網(wǎng)絡(luò)是一種旨在處理分層結(jié)構(gòu)神經(jīng)網(wǎng)絡(luò),使其特別適合涉及樹狀或嵌套數(shù)據(jù)的任務(wù)。這些網(wǎng)絡(luò)明確地模擬了層次
    的頭像 發(fā)表于 07-10 17:21 ?1237次閱讀
    遞歸<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>和循環(huán)<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的模型<b class='flag-5'>結(jié)構(gòu)</b>

    遞歸神經(jīng)網(wǎng)絡(luò)的實現(xiàn)方法

    遞歸神經(jīng)網(wǎng)絡(luò)(Recursive Neural Network,簡稱RNN)是一種特殊類型的神經(jīng)網(wǎng)絡(luò),其特點在于能夠處理具有層次或樹狀結(jié)構(gòu)的數(shù)據(jù),并通過遞歸的方式對這些數(shù)據(jù)進(jìn)行建模。與
    的頭像 發(fā)表于 07-10 17:02 ?750次閱讀

    BP神經(jīng)網(wǎng)絡(luò)和人工神經(jīng)網(wǎng)絡(luò)的區(qū)別

    BP神經(jīng)網(wǎng)絡(luò)和人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Networks,簡稱ANNs)之間的關(guān)系與區(qū)別,是神經(jīng)網(wǎng)絡(luò)領(lǐng)域中一個基礎(chǔ)且重要的話題。本文將從定義、結(jié)構(gòu)、算法、應(yīng)用及
    的頭像 發(fā)表于 07-10 15:20 ?2215次閱讀

    人工智能神經(jīng)網(wǎng)絡(luò)的一般結(jié)構(gòu)有幾個層次

    人工智能神經(jīng)網(wǎng)絡(luò)的一般結(jié)構(gòu)是多層次的,通常由輸入層、隱藏層和輸出層組成。下面將詳細(xì)介紹這三個層次結(jié)構(gòu)和功能。 輸入層 輸入層是
    的頭像 發(fā)表于 07-08 09:40 ?1708次閱讀

    人工神經(jīng)網(wǎng)絡(luò)模型包含哪些層次

    人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Network,ANN)是一種模擬人腦神經(jīng)網(wǎng)絡(luò)的計算模型,具有自適應(yīng)、自學(xué)習(xí)、泛化能力強(qiáng)等特點。本文將詳細(xì)介紹人工神經(jīng)網(wǎng)絡(luò)模型的各個層次
    的頭像 發(fā)表于 07-05 09:17 ?1348次閱讀

    循環(huán)神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)的區(qū)別

    循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)和卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)是深度學(xué)習(xí)領(lǐng)域中兩種非常重要的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)
    的頭像 發(fā)表于 07-04 14:24 ?2033次閱讀

    循環(huán)神經(jīng)網(wǎng)絡(luò)和遞歸神經(jīng)網(wǎng)絡(luò)的區(qū)別

    循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,簡稱RNN)和遞歸神經(jīng)網(wǎng)絡(luò)(Recursive Neural Network,簡稱RvNN)是深度學(xué)習(xí)中兩種重要的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。它們在
    的頭像 發(fā)表于 07-04 14:19 ?1488次閱讀

    人工智能神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)是什么

    人工智能神經(jīng)網(wǎng)絡(luò)是一種模擬人腦神經(jīng)網(wǎng)絡(luò)的計算模型,其結(jié)構(gòu)和功能非常復(fù)雜。 引言 人工智能神經(jīng)網(wǎng)絡(luò)是一種模擬人腦神經(jīng)網(wǎng)絡(luò)的計算模型,其
    的頭像 發(fā)表于 07-04 09:37 ?1122次閱讀

    bp神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)區(qū)別是什么

    結(jié)構(gòu)、原理、應(yīng)用場景等方面都存在一定的差異。以下是對這兩種神經(jīng)網(wǎng)絡(luò)的比較: 基本結(jié)構(gòu) BP神經(jīng)網(wǎng)絡(luò)是一種多層前饋神經(jīng)網(wǎng)絡(luò),由輸入層、隱藏層和
    的頭像 發(fā)表于 07-03 10:12 ?2559次閱讀

    神經(jīng)網(wǎng)絡(luò)算法的結(jié)構(gòu)有哪些類型

    神經(jīng)網(wǎng)絡(luò)算法是深度學(xué)習(xí)的基礎(chǔ),它們在許多領(lǐng)域都有廣泛的應(yīng)用,如圖像識別、自然語言處理、語音識別等。神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)有很多種類型,每種類型都有其獨特的特點和應(yīng)用場景。以下是對神經(jīng)網(wǎng)絡(luò)算法
    的頭像 發(fā)表于 07-03 09:50 ?896次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)及其功能

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡稱CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像識別、視頻分析、自然語言處理等領(lǐng)域。本文將詳細(xì)介紹卷積神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)及其功能
    的頭像 發(fā)表于 07-02 14:45 ?3561次閱讀

    神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)類型和應(yīng)用實例

    神經(jīng)網(wǎng)絡(luò)模型,作為深度學(xué)習(xí)領(lǐng)域的核心組成部分,近年來在圖像識別、自然語言處理、語音識別等多個領(lǐng)域取得了顯著進(jìn)展。本文旨在深入解讀神經(jīng)網(wǎng)絡(luò)的基本原理、結(jié)構(gòu)類型、訓(xùn)練過程以及應(yīng)用實例,為初
    的頭像 發(fā)表于 07-02 11:33 ?912次閱讀