一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

CNN中卷積都有些什么作用

Dbwd_Imgtec ? 來源:cc ? 2019-01-16 14:41 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)中,比如多層感知機(jī)(MLP),其輸入通常是一個特征向量。需要人工設(shè)計特征,然后將用這些特征計算的值組成特征向量。在過去幾十年的經(jīng)驗(yàn)來看,人工找的特征并不總是好用。有時多了,有時少了,有時選的特征根本就不起作用(真正起作用的特征在浩瀚的未知里)。這就是為啥過去幾十年神經(jīng)網(wǎng)絡(luò)一直被SVM等完虐的原因。

如果有人說,任何特征都是從圖像中提取的。那如果把整幅圖像作為特征來訓(xùn)練神經(jīng)網(wǎng)絡(luò)不就行了嘛,那肯定不會有任何的信息丟失!額,先不說一幅圖像有多少冗余信息,單說這數(shù)據(jù)量就嚇?biāo)懒耍?/p>

假如有一幅1000*1000的圖像,如果把整幅圖像作為向量,則向量的長度為1000000(10^6)。在假如隱含層神經(jīng)元的個數(shù)和輸入一樣,也是1000000;那么,輸入層到隱含層的參數(shù)數(shù)據(jù)量有10^12,媽呀,什么樣的機(jī)器能訓(xùn)練這樣的網(wǎng)絡(luò)呢。所以,我們還得降低維數(shù),同時得以整幅圖像為輸入(人類實(shí)在找不到好的特征了)。于是,牛逼的卷積來了。接下來看看卷積都干了些啥。

局部感知:

卷積神經(jīng)網(wǎng)絡(luò)有兩種神器可以降低參數(shù)數(shù)目,第一種神器叫做局部感知野。一般認(rèn)為人對外界的認(rèn)知是從局部到全局的,而圖像的空間聯(lián)系也是局部的像素聯(lián)系較為緊密,而距離較遠(yuǎn)的像素相關(guān)性則較弱。因而,每個神經(jīng)元其實(shí)沒有必要對全局圖像進(jìn)行感知,只需要對局部進(jìn)行感知,然后在更高層將局部的信息綜合起來就得到了全局的信息。網(wǎng)絡(luò)部分連通的思想,也是受啟發(fā)于生物學(xué)里面的視覺系統(tǒng)結(jié)構(gòu)。視覺皮層的神經(jīng)元就是局部接受信息的(即這些神經(jīng)元只響應(yīng)某些特定區(qū)域的刺激)。

如下圖所示:左圖為全連接,右圖為局部連接。

在上右圖中,假如每個神經(jīng)元只和10×10個像素值相連,那么權(quán)值數(shù)據(jù)為1000000×100個參數(shù),減少為原來的千分之一。而那10×10個像素值對應(yīng)的10×10個參數(shù),其實(shí)就相當(dāng)于卷積操作。

權(quán)值共享:

但其實(shí)這樣的話參數(shù)仍然過多,那么就啟動第二級神器,即權(quán)值共享。在上面的局部連接中,每個神經(jīng)元都對應(yīng)100個參數(shù),一共1000000個神經(jīng)元,如果這1000000個神經(jīng)元的100個參數(shù)都是相等的,那么參數(shù)數(shù)目就變?yōu)?00了。

怎么理解權(quán)值共享呢?

我們可以這100個參數(shù)(也就是卷積操作)看成是提取特征的方式,該方式與位置無關(guān)。這其中隱含的原理則是:圖像的一部分的統(tǒng)計特性與其他部分是一樣的。這也意味著我們在這一部分學(xué)習(xí)的特征也能用在另一部分上,所以對于這個圖像上的所有位置,我們都能使用同樣的學(xué)習(xí)特征。

更直觀一些,當(dāng)從一個大尺寸圖像中隨機(jī)選取一小塊,比如說 8×8 作為樣本,并且從這個小塊樣本中學(xué)習(xí)到了一些特征,這時我們可以把從這個 8×8 樣本中學(xué)習(xí)到的特征作為探測器,應(yīng)用到這個圖像的任意地方中去。特別是,我們可以用從 8×8 樣本中所學(xué)習(xí)到的特征跟原本的大尺寸圖像作卷積,從而對這個大尺寸圖像上的任一位置獲得一個不同特征的激活值。

如下圖所示,展示了一個3*3的卷積核在5*5的圖像上做卷積的過程。每個卷積都是一種特征提取方式,就像一個篩子,將圖像中符合條件(激活值越大越符合條件)的部分篩選出來。

多卷積核:

上面所述只有100個參數(shù)時,表明只有1個100*100的卷積核,顯然,特征提取是不充分的,我們可以添加多個卷積核,比如32個卷積核,可以學(xué)習(xí)32種特征。在有多個卷積核時,如下圖所示:

上圖右,不同顏色表明不同的卷積核。每個卷積核都會將圖像生成為另一幅圖像。比如兩個卷積核就可以將生成兩幅圖像,這兩幅圖像可以看做是一張圖像的不同的通道。如下圖所示:

池化(down-samplin):

在通過卷積獲得了特征 (features) 之后,下一步我們希望利用這些特征去做分類。理論上講,人們可以用所有提取得到的特征去訓(xùn)練分類器,例如 softmax 分類器,但這樣做面臨計算量的挑戰(zhàn)。例如:對于一個 96X96 像素的圖像,假設(shè)我們已經(jīng)學(xué)習(xí)得到了400個定義在8X8輸入上的特征,每一個特征和圖像卷積都會得到一個 (96 ? 8 + 1) × (96 ? 8 + 1) = 7921 維的卷積特征,由于有 400 個特征,所以每個樣例 (example) 都會得到一個 7921 × 400 = 3,168,400 維的卷積特征向量。學(xué)習(xí)一個擁有超過 3 百萬特征輸入的分類器十分不便,并且容易出現(xiàn)過擬合 (over-fitting)。

為了解決這個問題,首先回憶一下,我們之所以決定使用卷積后的特征是因?yàn)閳D像具有一種“靜態(tài)性”的屬性,這也就意味著在一個圖像區(qū)域有用的特征極有可能在另一個區(qū)域同樣適用。因此,為了描述大的圖像,一個很自然的想法就是對不同位置的特征進(jìn)行聚合統(tǒng)計,例如,人們可以計算圖像一個區(qū)域上的某個特定特征的平均值 (或最大值)。這些概要統(tǒng)計特征不僅具有低得多的維度 (相比使用所有提取得到的特征),同時還會改善結(jié)果(不容易過擬合)。這種聚合的操作就叫做池化 (pooling),有時也稱為平均池化或者最大池化 (取決于計算池化的方法)。

多卷積層:

在實(shí)際應(yīng)用中,往往使用多層卷積,然后再使用全連接層進(jìn)行訓(xùn)練,多層卷積的目的是一層卷積學(xué)到的特征往往是局部的,層數(shù)越高,學(xué)到的特征就越全局化。

到此,基本上就把CNN中的卷積說全了!

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4814

    瀏覽量

    103601
  • cnn
    cnn
    +關(guān)注

    關(guān)注

    3

    文章

    354

    瀏覽量

    22741

原文標(biāo)題:CNN中卷積的意義

文章出處:【微信號:Imgtec,微信公眾號:Imagination Tech】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    在友晶LabCloud平臺上使用PipeCNN實(shí)現(xiàn)ImageNet圖像分類

    利用深度卷積神經(jīng)網(wǎng)絡(luò)(CNN)進(jìn)行圖像分類是通過使用多個卷積層來從輸入數(shù)據(jù)中提取特征,最后通過分類層做決策來識別出目標(biāo)物體。
    的頭像 發(fā)表于 04-23 09:42 ?400次閱讀
    在友晶LabCloud平臺上使用PipeCNN實(shí)現(xiàn)ImageNet圖像分類

    自動駕駛感知系統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)原理的疑點(diǎn)分析

    背景 卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNN)的核心技術(shù)主要包括以下幾個方面:局部連接、權(quán)值共享、多卷積核以及池化。這些技術(shù)共同作用,使得
    的頭像 發(fā)表于 04-07 09:15 ?361次閱讀
    自動駕駛感知系統(tǒng)<b class='flag-5'>中</b><b class='flag-5'>卷積</b>神經(jīng)網(wǎng)絡(luò)原理的疑點(diǎn)分析

    如何使用MATLAB實(shí)現(xiàn)一維時間卷積網(wǎng)絡(luò)

    本文對一維卷積操作進(jìn)行介紹,包括一維擴(kuò)展卷積和一維因果卷積,以及 MATLAB 對一維卷積的支持情況。在最后通過一個實(shí)例演示如何在 MATLAB 中將一維
    的頭像 發(fā)表于 03-07 09:15 ?1081次閱讀
    如何使用MATLAB實(shí)現(xiàn)一維時間<b class='flag-5'>卷積</b>網(wǎng)絡(luò)

    BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的比較

    多層。 每一層都由若干個神經(jīng)元構(gòu)成,神經(jīng)元之間通過權(quán)重連接。信號在神經(jīng)網(wǎng)絡(luò)是前向傳播的,而誤差是反向傳播的。 卷積神經(jīng)網(wǎng)絡(luò)(CNN) : CNN主要由
    的頭像 發(fā)表于 02-12 15:53 ?665次閱讀

    FPGA圖像處理基礎(chǔ)----實(shí)現(xiàn)緩存卷積窗口

    素行進(jìn)行緩存與變換。由于在圖像處理過程,經(jīng)常會使用到卷積,因此需要對圖像進(jìn)行開窗,然后將開窗得到的局部圖像與卷積核進(jìn)行卷積,從而完成處理。 ??圖像數(shù)據(jù)一般按照一定的格式和時序進(jìn)行傳
    的頭像 發(fā)表于 02-07 10:43 ?827次閱讀
    FPGA圖像處理基礎(chǔ)----實(shí)現(xiàn)緩存<b class='flag-5'>卷積</b>窗口

    反相器在數(shù)字電路中都有作用呢?

    1,反相器在數(shù)字電路中都有作用呢?我學(xué)習(xí)的項(xiàng)目中,dsp出來的時鐘信號并沒有直接給ad采樣芯片,而是經(jīng)過反相器兩次反轉(zhuǎn)之后才給的ad,這有什么作用呢 2,數(shù)據(jù)手冊Static c
    發(fā)表于 01-22 06:51

    AI模型部署邊緣設(shè)備的奇妙之旅:目標(biāo)檢測模型

    。 填充(Padding): 填充(Padding)是在卷積神經(jīng)網(wǎng)絡(luò)(CNN為輸入張量的邊緣添加額外的像素,以控制輸出特征圖的大小并保持輸入圖像的空間尺寸。填充有助于保留輸入圖像邊緣的信息,并在
    發(fā)表于 12-19 14:33

    卷積神經(jīng)網(wǎng)絡(luò)的參數(shù)調(diào)整方法

    卷積神經(jīng)網(wǎng)絡(luò)因其在處理具有空間層次結(jié)構(gòu)的數(shù)據(jù)時的卓越性能而受到青睞。然而,CNN的成功很大程度上依賴于其參數(shù)的合理設(shè)置。參數(shù)調(diào)整是一個復(fù)雜的過程,涉及到多個超參數(shù)的選擇和優(yōu)化。 網(wǎng)絡(luò)架構(gòu)參數(shù) 卷積
    的頭像 發(fā)表于 11-15 15:10 ?1207次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)在自然語言處理的應(yīng)用

    。 卷積神經(jīng)網(wǎng)絡(luò)的基本原理 卷積神經(jīng)網(wǎng)絡(luò)是一種前饋神經(jīng)網(wǎng)絡(luò),它通過卷積層來提取輸入數(shù)據(jù)的特征。在圖像處理,卷積層能夠捕捉局部特征,如邊緣和
    的頭像 發(fā)表于 11-15 14:58 ?804次閱讀

    深度學(xué)習(xí)卷積神經(jīng)網(wǎng)絡(luò)模型

    深度學(xué)習(xí)近年來在多個領(lǐng)域取得了顯著的進(jìn)展,尤其是在圖像識別、語音識別和自然語言處理等方面。卷積神經(jīng)網(wǎng)絡(luò)作為深度學(xué)習(xí)的一個分支,因其在圖像處理任務(wù)的卓越性能而受到廣泛關(guān)注。 卷積神經(jīng)網(wǎng)絡(luò)的基本概念
    的頭像 發(fā)表于 11-15 14:52 ?845次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的基本原理與算法

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)是一類包含卷積計算且具有深度結(jié)構(gòu)的前饋神經(jīng)網(wǎng)絡(luò)(Feedforward Neural Networks,F(xiàn)NN
    的頭像 發(fā)表于 11-15 14:47 ?1776次閱讀

    傅里葉變換與卷積定理的關(guān)系

    的數(shù)學(xué)變換。 它能夠揭示信號的頻率成分,是信號處理的基礎(chǔ)工具。 卷積 : 是一種積分運(yùn)算,常用于信號處理,表示一個信號對另一個信號的響應(yīng)。 在數(shù)學(xué)上,卷積是通過一種特定的積分或求和
    的頭像 發(fā)表于 11-14 09:33 ?1909次閱讀

    關(guān)于卷積神經(jīng)網(wǎng)絡(luò),這些概念你厘清了么~

    這個小型網(wǎng)絡(luò),用于描述網(wǎng)絡(luò)的方程也具有32個偏置和32個權(quán)重。 CIFAR神經(jīng)網(wǎng)絡(luò)是一種廣泛用于圖像識別的CNN。它主要由兩種類型的層組成:卷積層和池化層,這兩種層分別使用卷積和池化
    發(fā)表于 10-24 13:56

    高斯卷積核函數(shù)在圖像采樣的意義

    高斯卷積核函數(shù)在圖像采樣的意義主要體現(xiàn)在以下幾個方面: 1. 平滑處理與去噪 平滑圖像 :高斯卷積核函數(shù)通過其權(quán)重分布特性,即中心像素點(diǎn)權(quán)重最高,周圍像素點(diǎn)權(quán)重逐漸降低,實(shí)現(xiàn)了對圖像的平滑處理
    的頭像 發(fā)表于 09-29 09:33 ?852次閱讀

    高斯濾波的卷積核怎么確定

    高斯濾波的卷積核確定主要依賴于高斯函數(shù)的特性以及圖像處理的具體需求。以下是確定高斯濾波卷積核的幾個關(guān)鍵步驟: 一、確定卷積核的大小 卷積核形狀 :高斯濾波的
    的頭像 發(fā)表于 09-29 09:29 ?1679次閱讀