一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

如何透徹理解卷積的數(shù)據(jù)原理與機制

新機器視覺 ? 來源:極市平臺 ? 作者:極市平臺 ? 2021-06-16 16:43 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

作者以拋球?qū)嶒灋槔v解了許多卷積的數(shù)學原理和機制,并通過卷積來表述卷積神經(jīng)網(wǎng)絡。文章附有大量圖片解釋,幫助大家更容易理解。

拋球?qū)嶒?-- Ball drop experiment

想象一下,我們把一個球從某個高度落到地面上,它只有一個運動維度。如果你把球落下,然后再從它的落點上方把它落下,球會走一段距離 的可能性有多大?

我們來分析一下: 第一次下落后,它將以概率 落在離起點一個單位的地方,其中是概率分布。現(xiàn)在,在第一次落下之后,我們把球撿起來,從它第一次落地點以上的另一個高度落下。球從新的起點滾動 個單位的概率是 ,如果它是從不同的高度落下的,那么 可能是不同的概率分布。

如果我們把第一次下落的結果固定下來,使我們知道球走了距離 ,對于球走的總距離 ,第二次下落時走的距離也固定為 ,即 。所以這種情況發(fā)生的概率簡單來說就是 。。

我們用一個具體的離散例子來思考這個問題。我們希望總距離 為 3。如果它第一次滾動,,那么第二次必須滾動 ,才能達到我們的總距離 。這個概率是 。

然而,這并不是我們可以達到總距離3的唯一方法。球可以第一次滾1個單位,第二次滾2個單位?;蛘叩谝淮螡L0個單位,第二次滾3個單位。它可以是任何 和 ,只要他們加起來是 3。

為了求出小球到達總 的總概率,我們不能只考慮到達 的一種可能方式,而是考慮將 分成 和 的所有可能方式,并將每種方式的概率相加。

我們已經(jīng)知道, 的每一種情況的概率簡單來說就是 。所以,將 的每一個解求和,我們可以將總似然表示為。

和 的卷積,在 處被定義為。

如果我們把代入,我們得到。

為了使這一點更加具體,我們可以從球可能落地的位置來考慮。在第一次落地后,它將以概率 落在中間位置 。如果它落在 處,它落在 處的概率為 。

為了得到卷積,我們需要考慮所有的中間位置。

可視化卷積 -- Visualizing Convolutions

假設一個球落在離原點一定距離 的概率是。那么,它 從 處返回原點的的概率是。

如果我們知道球在第二次落地后落在 處,那么第一次的位置是 的概率是多少?

所以,前一個位置是 的概率是 。

每個中間位置球最終落在 處的概率。我們知道第一個落點把球放到中間位置 的概率是 。我們還知道,如果它落在 處,它在 處的概率是 。

將 的所有可能值相加,我們得到卷積結果。

通過移動下半部分,當分布對齊時,卷積達到峰值。

并且隨著分布之間的交點越來越小而縮小。

下圖,我們能夠直觀地看到三角波與方波函數(shù)的卷積。

759a0278-cab3-11eb-9e57-12bb97331649.jpg

掌握了這個要點,很多概念變得更加直觀。

音頻處理中有時會用到卷積。例如,人們可能會使用一個有兩個尖峰,但其他地方都是零的函數(shù)來創(chuàng)建一個回聲。當我們的雙尖峰函數(shù)滑動時,一個尖峰首先擊中一個時間點,將該信號添加到輸出聲音中,之后,另一個尖峰跟隨,添加第二個延遲的副本。

高維卷積--Higher Dimensional Convolutions

卷積不僅僅適用于1維看空間,也適用于高維空間。

回顧開頭的例子,落下的球?,F(xiàn)在,當它落下時,它的位置不僅在一維中移動,而且在二維中移動。

和前面的卷積一樣。

只是,現(xiàn)在 , , 和 都是向量。更明確地說,

標準定義:

就像一維卷積一樣,我們可以把二維卷積看成是把一個函數(shù)滑動到另一個函數(shù)之上,進行乘法和加法。

卷積神經(jīng)網(wǎng)絡--Convolutional Neural Networks

那么,卷積與卷積神經(jīng)網(wǎng)絡的關系如何呢?

在一個1維卷積層中,輸入 ,輸出 。

從信號與系統(tǒng)的角度來描述,

是輸入信號,是輸出信號, 是系統(tǒng),這個系統(tǒng)由 個神經(jīng)元組成,可以用輸入來描述輸出。

也可以用神經(jīng)網(wǎng)絡的方式來描述

其中 是輸入, 是權重。權重描述了神經(jīng)元與輸入的連接方式。

負的權重意味著輸入會抑制神經(jīng)元發(fā)射,而正的權重則鼓勵它發(fā)射。

權重是神經(jīng)元的心臟,控制著它的行為。如果說2個神經(jīng)元是相同的,即它們的權重是相同的。

其中一個常見的應用是圖像處理。我們可以把圖像看作是二維函數(shù)。許多重要的圖像變換都是卷積,你用一個非常小的局部函數(shù)(稱為 “內(nèi)核”)對圖像函數(shù)進行卷積。

在上面的演示中,綠色部分類似于我們的 5x5x1 輸入圖像 。在卷積層的第一部分進行卷積操作的元素被稱為Kernel/Filter, 用黃色表示。我們選擇一個3x3x1矩陣作為Kernel。

Kernel 以一定的步伐向右移動,直到它解析出整行的寬度。接著,它以相同的步伐值跳到圖像的開頭(左邊),并重復這個過程,直到遍歷整個圖像。

在多通道圖像的情況下( 如RGB ),Kernel 的深度與輸入圖像的深度相同。Kernel 與圖片 進行矩陣乘法,然后將所有結果與偏置相加,得到一個單通道卷積特征輸出。

卷積操作的目的是從輸入圖像中提取高級特征,如邊緣。傳統(tǒng)上,卷積層可以捕捉低級特征,如邊緣、顏色、梯度方向等。隨著層數(shù)的增加,架構也可以捕捉高階特征,讓我們的神經(jīng)網(wǎng)絡對圖像有更深刻的理解。

該卷積有兩種結果--一種是卷積特征與輸入相比維度減少,有效填充(Valide Padding)。另一種是維度增加或保持不變,相同填充(Same Padding)。

當我們將5x5x1的圖像填充為6x6x1的圖像,然后在其上應用3x3x1的核,我們發(fā)現(xiàn)卷積矩陣變成了5x5x1的尺寸。因此,我們將其命名為--相同填充(Same Padding)。

另一方面,如果我們在沒有填充的情況下執(zhí)行同樣的操作,我們將得到一個具有內(nèi)核(3x3x1)本身尺寸的矩陣--有效填充(Valide Padding)。

池化層 -- Pooling Layer

與卷積層類似,Pooling層負責減少卷積特征的空間大小。這是為了通過降低維度來降低處理數(shù)據(jù)所需的計算能力。此外,它還有助于提取旋轉和位置不變的主導特征,從而保持模型的有效訓練過程。下圖表示在5x5卷積特征上的3x3池化。

有兩種類型的池化。最大池化和平均池化。最大池化(Max Pooling)返回的是Kernel覆蓋的圖像部分的最大值。另一方面,平均池化(Average Pooling)返回Kernel覆蓋的圖像部分的所有值的平均值。

Max Pooling也是一種噪聲抑制器。它完全丟棄了嘈雜的激活,并在降低維度的同時進行去噪。另一方面,Average Pooling只是作為噪聲抑制機制進行維度降低。因此,我們可以說Max Pooling的性能比Average Pooling好很多。

卷積層和池化層,共同構成了卷積神經(jīng)網(wǎng)絡的第層。根據(jù)圖像的復雜程度,可以增加這些層的數(shù)量,以便進一步捕捉低層次的細節(jié),但代價是增加計算能力。

在經(jīng)歷了上述過程后,我們已經(jīng)成功地使模型理解了特征。接下來,我們要將最終的輸出結果進行扁平化處理,并將其饋送到普通的神經(jīng)網(wǎng)絡中,以達到分類的目的。

全連接層(FC層) —- Fully Connected Layer (FC Layer)

全連接層正在學習該空間中可能的非線性函數(shù)。

現(xiàn)在,我們已經(jīng)將輸入圖像轉換為適合多級感知器 (Multi-Level Perceptron) 的形式,我們將把圖像扁平化(Flatten layer)為列向量。扁平化的輸出被送入前饋神經(jīng)網(wǎng)絡,并在每次訓練迭代中應用反向傳播。在一系列的紀元中,該模型能夠區(qū)分圖像中的主導特征和某些低級特征,并使用Softmax分類方法對其進行分類。

總結 -- Conclusion

我們在這篇博文中介紹了很多數(shù)學機制,但我們獲得的東西可能并不明顯。卷積顯然是概率論和計算機圖形學中的一個有用工具,但是用卷積來表述卷積神經(jīng)網(wǎng)絡,我們獲得了什么?

第一個好處是,我們有了一些非常強大的語言來描述神經(jīng)網(wǎng)絡的層。卷積大大簡化了繁瑣的計算工作。

其次,卷積非常容易實現(xiàn)?,F(xiàn)存的許多庫都提供了高效的卷積方法。

此外,卷積看起來是一個 操作,但使用一些相當深刻的數(shù)學見解,可以創(chuàng)建一個 的實現(xiàn)。

Tips:

我們想知道球第一次滾動 單位,第二次滾動 單位的概率。所以 。

卷積滿足交換律,即 。

卷積滿足結合律的,即,

編輯:jq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 卷積
    +關注

    關注

    0

    文章

    95

    瀏覽量

    18760
  • 離散
    +關注

    關注

    0

    文章

    35

    瀏覽量

    17899
  • 噪聲抑制器
    +關注

    關注

    0

    文章

    3

    瀏覽量

    7298

原文標題:如何透徹理解卷積的數(shù)據(jù)原理與機制:從拋球?qū)嶒炚f起

文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    【干貨】數(shù)據(jù)“零處理”,什么是DTU透傳機制?

    概述DTU(數(shù)據(jù)傳輸單元)透傳模式是工業(yè)物聯(lián)網(wǎng)的核心技術,它像一條透明的數(shù)據(jù)管道,不做任何解析或修改,直接將終端設備的原始字節(jié)流(如傳感器數(shù)據(jù)、PLC指令)通過無線網(wǎng)絡原樣轉發(fā)至服務器。通俗
    的頭像 發(fā)表于 07-03 19:32 ?250次閱讀
    【干貨】<b class='flag-5'>數(shù)據(jù)</b>“零處理”,什么是DTU透傳<b class='flag-5'>機制</b>?

    如何使用MATLAB實現(xiàn)一維時間卷積網(wǎng)絡

    本文對一維卷積操作進行介紹,包括一維擴展卷積和一維因果卷積,以及 MATLAB 對一維卷積的支持情況。在最后通過一個實例演示如何在 MATLAB 中將一維
    的頭像 發(fā)表于 03-07 09:15 ?1082次閱讀
    如何使用MATLAB實現(xiàn)一維時間<b class='flag-5'>卷積</b>網(wǎng)絡

    請問OpenVINO?工具套件是否支持使用非對稱卷積的支持模型?

    無法確定使用非對稱卷積的模型是否受 OpenVINO? Toolkit 的支持
    發(fā)表于 03-06 07:58

    Java的SPI機制詳解

    接口規(guī)范以及可以發(fā)現(xiàn)接口實現(xiàn)的機制,而不需要實現(xiàn)接口。 SPI機制在Java中應用廣泛。例如:JDBC中的數(shù)據(jù)庫連接驅(qū)動使用SPI機制,只定義了數(shù)據(jù)
    的頭像 發(fā)表于 03-05 11:35 ?784次閱讀
    Java的SPI<b class='flag-5'>機制</b>詳解

    BP神經(jīng)網(wǎng)絡與卷積神經(jīng)網(wǎng)絡的比較

    多層。 每一層都由若干個神經(jīng)元構成,神經(jīng)元之間通過權重連接。信號在神經(jīng)網(wǎng)絡中是前向傳播的,而誤差是反向傳播的。 卷積神經(jīng)網(wǎng)絡(CNN) : CNN主要由卷積層、池化層和全連接層組成。 卷積層通過滑動窗口(濾波器)對輸入
    的頭像 發(fā)表于 02-12 15:53 ?670次閱讀

    FPGA圖像處理基礎----實現(xiàn)緩存卷積窗口

    素行進行緩存與變換。由于在圖像處理過程中,經(jīng)常會使用到卷積,因此需要對圖像進行開窗,然后將開窗得到的局部圖像與卷積核進行卷積,從而完成處理。 ??圖像數(shù)據(jù)一般按照一定的格式和時序進行傳
    的頭像 發(fā)表于 02-07 10:43 ?829次閱讀
    FPGA圖像處理基礎----實現(xiàn)緩存<b class='flag-5'>卷積</b>窗口

    干法蝕刻異向機制的原理解

    無偏差的刻蝕過程,我們稱之為各向異性刻蝕。為了更清晰地理解這一過程,我們可以將其拆解為幾個基本環(huán)節(jié)。首先,第一個環(huán)節(jié)是刻蝕氣體的處理,這些氣體在等離子體環(huán)境中會被分解成離子、自由基等具有刻蝕作用
    的頭像 發(fā)表于 12-17 10:48 ?1129次閱讀
    干法蝕刻異向<b class='flag-5'>機制</b>的原<b class='flag-5'>理解</b>析

    卷積神經(jīng)網(wǎng)絡的參數(shù)調(diào)整方法

    卷積神經(jīng)網(wǎng)絡因其在處理具有空間層次結構的數(shù)據(jù)時的卓越性能而受到青睞。然而,CNN的成功很大程度上依賴于其參數(shù)的合理設置。參數(shù)調(diào)整是一個復雜的過程,涉及到多個超參數(shù)的選擇和優(yōu)化。 網(wǎng)絡架構參數(shù) 卷積
    的頭像 發(fā)表于 11-15 15:10 ?1209次閱讀

    卷積神經(jīng)網(wǎng)絡在自然語言處理中的應用

    自然語言處理是人工智能領域的一個重要分支,它致力于使計算機能夠理解、解釋和生成人類語言。隨著深度學習技術的發(fā)展,卷積神經(jīng)網(wǎng)絡(CNNs)作為一種強大的模型,在圖像識別和語音處理等領域取得了顯著成果
    的頭像 發(fā)表于 11-15 14:58 ?807次閱讀

    深度學習中的卷積神經(jīng)網(wǎng)絡模型

    卷積神經(jīng)網(wǎng)絡是一種前饋神經(jīng)網(wǎng)絡,其靈感來源于生物的視覺皮層機制。它通過模擬人類視覺系統(tǒng)的處理方式,能夠自動提取圖像特征,從而在圖像識別和分類任務中表現(xiàn)出色。 卷積神經(jīng)網(wǎng)絡的基本結構 卷積
    的頭像 發(fā)表于 11-15 14:52 ?846次閱讀

    卷積神經(jīng)網(wǎng)絡的基本原理與算法

    卷積神經(jīng)網(wǎng)絡(Convolutional Neural Networks,CNN)是一類包含卷積計算且具有深度結構的前饋神經(jīng)網(wǎng)絡(Feedforward Neural Networks,F(xiàn)NN
    的頭像 發(fā)表于 11-15 14:47 ?1784次閱讀

    傅里葉變換與卷積定理的關系

    傅里葉變換與卷積定理之間存在著密切的關系,這種關系在信號處理、圖像處理等領域中具有重要的應用價值。 一、傅里葉變換與卷積的基本概念 傅里葉變換 : 是一種將時間域(或空間域)信號轉換為頻率域信號
    的頭像 發(fā)表于 11-14 09:33 ?1918次閱讀

    一種基于因果路徑的層次圖卷積注意力網(wǎng)絡

    機電系統(tǒng)中數(shù)據(jù)驅(qū)動故障檢測模型的性能和可解釋性。引入了一種混合因果發(fā)現(xiàn)算法來發(fā)現(xiàn)監(jiān)測變量之間的繼承因果關系。順序連接因果變量的因果路徑用作接收場,使用多尺度卷積來提取特征?;诜謱幼⒁饬?b class='flag-5'>機制來聚合
    的頭像 發(fā)表于 11-12 09:52 ?1071次閱讀
    一種基于因果路徑的層次圖<b class='flag-5'>卷積</b>注意力網(wǎng)絡

    關于卷積神經(jīng)網(wǎng)絡,這些概念你厘清了么~

    取特征的強大工具,例如識別音頻信號或圖像信號中的復雜模式就是其應用之一。 1、什么是卷積神經(jīng)網(wǎng)絡? 神經(jīng)網(wǎng)絡是一種由神經(jīng)元組成的系統(tǒng)或結構,它使AI能夠更好地理解數(shù)據(jù),進而解決復雜問題。雖然神經(jīng)網(wǎng)絡有
    發(fā)表于 10-24 13:56

    高斯濾波的卷積核怎么確定

    高斯濾波的卷積核確定主要依賴于高斯函數(shù)的特性以及圖像處理的具體需求。以下是確定高斯濾波卷積核的幾個關鍵步驟: 一、確定卷積核的大小 卷積核形狀 :高斯濾波的
    的頭像 發(fā)表于 09-29 09:29 ?1686次閱讀