一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

卷積神經(jīng)網(wǎng)絡(luò)的發(fā)展及各模型的優(yōu)缺點

新機(jī)器視覺 ? 來源:新機(jī)器視覺 ? 2023-01-29 15:15 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

前言

在CV領(lǐng)域,我們需要熟練掌握最基本的知識就是各種卷積神經(jīng)網(wǎng)絡(luò)CNN的模型架構(gòu),不管我們在圖像分類或者分割,目標(biāo)檢測,NLP等,我們都會用到基本的CNN網(wǎng)絡(luò)架構(gòu)。

CNN從最初的2012年AlexNet橫空出世到2014年VGG席卷世界以及2015年ResNet奠定了該領(lǐng)域的霸主地位,網(wǎng)絡(luò)模型變得越變越深,而且也得到證明,越深的網(wǎng)絡(luò)擬合效果越好,但網(wǎng)絡(luò)相應(yīng)的參數(shù)量計算量都極速增加,不利于技術(shù)的推廣和應(yīng)用。

因此,一些輕量級的網(wǎng)絡(luò)結(jié)構(gòu)也慢慢隨之出現(xiàn),比如MobileNet系列,ShuffleNet系列,以及ResNext、DenseNet、EfficenceNet等模型,他們都互相吸取彼此的優(yōu)點,不但降低了參數(shù)量或者計算量,同時分類精度更高,因而受到了更多的關(guān)注。接下來我們就對CNN的各種網(wǎng)絡(luò)結(jié)構(gòu)以及他們的優(yōu)缺點進(jìn)行一次詳細(xì)的解讀!

AlexNet(2012)

fed675f6-9903-11ed-bfe3-dac502259ad0.png

1、增加了relu非線性激活函數(shù),增強(qiáng)了模型的非線性表達(dá)能力。成為以后卷積層的標(biāo)配。

2、dropout層防止過擬合,成為以后fc層的標(biāo)配。

3、通過數(shù)據(jù)增強(qiáng),來減少過擬合。

4、引入標(biāo)準(zhǔn)化層(Local Response Normalization):通過放大那些對分類貢獻(xiàn)較大的神經(jīng)元,抑制那些對分類貢獻(xiàn)較小的神經(jīng)元,通過局部歸一的手段,來達(dá)到作用。

VGG(2014)

fedd38c8-9903-11ed-bfe3-dac502259ad0.png

論文的主要創(chuàng)新點在于:

1、用3x3小卷積核代替了5x5或者7x7的卷積核 2、基于ALexnet加深了網(wǎng)絡(luò)深度,證明了更深的網(wǎng)絡(luò),能更好的提取特征。

GoogleNet(2014)

fee6791a-9903-11ed-bfe3-dac502259ad0.png

在設(shè)計網(wǎng)絡(luò)結(jié)構(gòu)時,不僅僅考慮網(wǎng)絡(luò)的深度,也會考慮網(wǎng)絡(luò)的寬度,并將這種結(jié)構(gòu)定義為Inception結(jié)構(gòu)。

feef7b46-9903-11ed-bfe3-dac502259ad0.png

1、引入1x1卷積的主要目的是為了減少維度,還用于修正線性激活(ReLU)

2、網(wǎng)絡(luò)最后采用了average pooling(平均池化)來代替全連接層

后面的Inception v2/v3都是基于v1的這種方法在擴(kuò)展,主要目標(biāo)有:

1、參數(shù)量降低,計算量減少。

2、網(wǎng)絡(luò)變深,網(wǎng)絡(luò)非線性表達(dá)能力更強(qiáng)

ResNet(2015)

問題:

1、增加深度帶來的首個問題就是梯度爆炸/消散的問題,這是由于隨著層數(shù)的增多,在網(wǎng)絡(luò)中反向傳播的梯度會隨著連乘變得不穩(wěn)定,變得特別大或者特別小。這其中經(jīng)常出現(xiàn)的是梯度消散的問題。

2、為了克服梯度消散也想出了許多的解決辦法,如使用BatchNorm,將激活函數(shù)換為ReLu,使用Xaiver初始化等,可以說梯度消散已經(jīng)得到了很好的解決

fef80afe-9903-11ed-bfe3-dac502259ad0.png

已知有網(wǎng)絡(luò)degradation的情況下,不求加深度能提高準(zhǔn)確性,能不能至少讓深度網(wǎng)絡(luò)實現(xiàn)和淺層網(wǎng)絡(luò)一樣的性能,即讓深度網(wǎng)絡(luò)后面的層至少實現(xiàn)恒等映射的作用,根據(jù)這個想法,作者提出了residual模塊來幫助網(wǎng)絡(luò)實現(xiàn)恒等映射。

ff011b12-9903-11ed-bfe3-dac502259ad0.png

ResNet的設(shè)計特點:

1、核心單元模塊化,可進(jìn)行簡單堆疊。 2、Shortcut方式解決網(wǎng)絡(luò)梯度消失問題。 3、Average Pooling層代替fc層。 4、引入BN層加快網(wǎng)絡(luò)訓(xùn)練速度和收斂時的穩(wěn)定性。 5、加大網(wǎng)絡(luò)深度,提高模型的特征抽取能力。

MobileNet v1

谷歌在2017年提出專注于移動端或者嵌入式設(shè)備中的輕量級CNN網(wǎng)絡(luò):MobileNet。最大的創(chuàng)新點是深度可分離卷積。

通過將標(biāo)準(zhǔn)卷積分解為深度卷積核逐點卷積,能夠顯著的降低參數(shù)量和計算量。引入Relu6激活函數(shù)。

ff0beaba-9903-11ed-bfe3-dac502259ad0.png

參數(shù)量計算量的計算:

ff15a23a-9903-11ed-bfe3-dac502259ad0.png

網(wǎng)絡(luò)結(jié)構(gòu)如下:

ff20e8c0-9903-11ed-bfe3-dac502259ad0.png

MobileNet v2

改進(jìn)點主要有以下幾個方面:

1、引入殘差結(jié)構(gòu),先升維再降維,增強(qiáng)梯度的傳播,顯著減少推理期間所需的內(nèi)存占用

Inverted Residuals:

殘差模塊:輸入首先經(jīng)過1x1的卷積進(jìn)行壓縮,然后使用3x3的卷積進(jìn)行特征提取,最后在用1x1的卷積把通道數(shù)變換回去。整個過程是“壓縮-卷積-擴(kuò)張”。這樣做的目的是減少3x3模塊的計算量,提高殘差模塊的計算效率。

ff2e1018-9903-11ed-bfe3-dac502259ad0.png

倒殘差模塊:輸入首先經(jīng)過1x1的卷積進(jìn)行通道擴(kuò)張,然后使用3x3的depthwise卷積,最后使用1x1的pointwise卷積將通道數(shù)壓縮回去。整個過程是“擴(kuò)張-卷積-壓縮”。

對低維度做ReLU運算,很容易造成信息的丟失。而在高維度進(jìn)行ReLU運算的話,信息的丟失則會很少。

ff384ccc-9903-11ed-bfe3-dac502259ad0.png

Linear Bottleneck:

這個模塊是為了解決一開始提出的那個低維-高維-低維的問題,即將最后一層的ReLU6替換成線性激活函數(shù),而其他層的激活函數(shù)依然是ReLU6。

MobileNet v3

V3結(jié)合了V1的深度可分離卷積,V2的Inverted Residuals 和 Linear Bottleneck,以及加入SE模塊、利用NAS(神經(jīng)結(jié)構(gòu)的搜索)來搜索網(wǎng)絡(luò)參數(shù)。

ff3f3d34-9903-11ed-bfe3-dac502259ad0.png

互補(bǔ)搜索技術(shù) —— NAS & NetAdapt

h-swish激活函數(shù)

out = F.relu6(x + 3., self.inplace) / 6. return out * x

改進(jìn)一:下圖是MobileNet-v2的整理模型架構(gòu),可以看到,網(wǎng)絡(luò)的最后部分首先通過1x1卷積映射到高維,然后通過GAP收集特征,最后使用1x1卷積劃分到K類。所以其中起抽取特征作用的是在7x7分辨率上做1x1卷積的那一層。

而V3是先進(jìn)行池化然后再進(jìn)行1x1卷積提取特征,V2是先1X1卷積提取特征再池化。

ff4b71c6-9903-11ed-bfe3-dac502259ad0.png

ShuffleNet

組卷積

Group convolution是將輸入層的不同特征圖進(jìn)行分組,然后采用不同的卷積核再對各個組進(jìn)行卷積,這樣會降低卷積的計算量。

因為一般的卷積都是在所有的輸入特征圖上做卷積,可以說是全通道卷積,這是一種通道密集連接方式(channel dense connection),而group convolution相比則是一種通道稀疏連接方式(channel sparse connection)。

depthwise convolution,這是一種比較特殊的group convolution,此時分組數(shù)恰好等于通道數(shù),意味著每個組只有一個特征圖。

分組卷積的會帶來一個矛盾就是特征通信。group convolution層另一個問題是不同組之間的特征圖需要通信。所以MobileNet等網(wǎng)絡(luò)采用密集的1x1 pointwise convolution,因為要保證group convolution之后不同組的特征圖之間的信息交流。

為達(dá)到特征通信目的,我們不采用dense pointwise convolution,考慮其他的思路:channel shuffle

ff5788b2-9903-11ed-bfe3-dac502259ad0.png

ShuffleNet的核心是采用了兩種操作:pointwise group convolution和channel shuffle,這在保持精度的同時大大降低了模型的計算量。其基本單元則是在一個殘差單元的基礎(chǔ)上改進(jìn)而成。

ff5f7b80-9903-11ed-bfe3-dac502259ad0.png

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • cnn
    cnn
    +關(guān)注

    關(guān)注

    3

    文章

    354

    瀏覽量

    22727
  • 卷積神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    4

    文章

    369

    瀏覽量

    12289
  • resnet
    +關(guān)注

    關(guān)注

    0

    文章

    13

    瀏覽量

    3318

原文標(biāo)題:卷積神經(jīng)網(wǎng)絡(luò)的發(fā)展及各模型的優(yōu)缺點

文章出處:【微信號:vision263com,微信公眾號:新機(jī)器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    BP神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)的比較

    BP神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)在多個方面存在顯著差異,以下是對兩者的比較: 一、結(jié)構(gòu)特點 BP神經(jīng)網(wǎng)絡(luò) : BP神經(jīng)網(wǎng)絡(luò)是一種多層的前饋
    的頭像 發(fā)表于 02-12 15:53 ?646次閱讀

    BP神經(jīng)網(wǎng)絡(luò)優(yōu)缺點分析

    BP神經(jīng)網(wǎng)絡(luò)(Back Propagation Neural Network)作為一種常用的機(jī)器學(xué)習(xí)模型,具有顯著的優(yōu)點,同時也存在一些不容忽視的缺點。以下是對BP神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 02-12 15:36 ?905次閱讀

    如何訓(xùn)練BP神經(jīng)網(wǎng)絡(luò)模型

    BP(Back Propagation)神經(jīng)網(wǎng)絡(luò)是一種經(jīng)典的人工神經(jīng)網(wǎng)絡(luò)模型,其訓(xùn)練過程主要分為兩個階段:前向傳播和反向傳播。以下是訓(xùn)練BP神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 02-12 15:10 ?892次閱讀

    人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法

    在上一篇文章中,我們介紹了傳統(tǒng)機(jī)器學(xué)習(xí)的基礎(chǔ)知識和多種算法。在本文中,我們會介紹人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法,供各位老師選擇。 01 人工神經(jīng)網(wǎng)絡(luò) ? 人工神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 01-09 10:24 ?1176次閱讀
    人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的原理和多種<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>架構(gòu)方法

    卷積神經(jīng)網(wǎng)絡(luò)的實現(xiàn)工具與框架

    卷積神經(jīng)網(wǎng)絡(luò)因其在圖像和視頻處理任務(wù)中的卓越性能而廣受歡迎。隨著深度學(xué)習(xí)技術(shù)的快速發(fā)展,多種實現(xiàn)工具和框架應(yīng)運而生,為研究人員和開發(fā)者提供了強(qiáng)大的支持。 TensorFlow 概述
    的頭像 發(fā)表于 11-15 15:20 ?657次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的參數(shù)調(diào)整方法

    卷積神經(jīng)網(wǎng)絡(luò)因其在處理具有空間層次結(jié)構(gòu)的數(shù)據(jù)時的卓越性能而受到青睞。然而,CNN的成功很大程度上依賴于其參數(shù)的合理設(shè)置。參數(shù)調(diào)整是一個復(fù)雜的過程,涉及到多個超參數(shù)的選擇和優(yōu)化。 網(wǎng)絡(luò)架構(gòu)參數(shù)
    的頭像 發(fā)表于 11-15 15:10 ?1201次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)在自然語言處理中的應(yīng)用

    自然語言處理是人工智能領(lǐng)域的一個重要分支,它致力于使計算機(jī)能夠理解、解釋和生成人類語言。隨著深度學(xué)習(xí)技術(shù)的發(fā)展卷積神經(jīng)網(wǎng)絡(luò)(CNNs)作為一種強(qiáng)大的模型,在圖像識別和語音處理等領(lǐng)域取
    的頭像 發(fā)表于 11-15 14:58 ?792次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的比較

    在深度學(xué)習(xí)領(lǐng)域,神經(jīng)網(wǎng)絡(luò)模型被廣泛應(yīng)用于各種任務(wù),如圖像識別、自然語言處理和游戲智能等。其中,卷積神經(jīng)網(wǎng)絡(luò)(CNNs)和傳統(tǒng)神經(jīng)網(wǎng)絡(luò)是兩種常
    的頭像 發(fā)表于 11-15 14:53 ?1848次閱讀

    深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)模型

    深度學(xué)習(xí)近年來在多個領(lǐng)域取得了顯著的進(jìn)展,尤其是在圖像識別、語音識別和自然語言處理等方面。卷積神經(jīng)網(wǎng)絡(luò)作為深度學(xué)習(xí)的一個分支,因其在圖像處理任務(wù)中的卓越性能而受到廣泛關(guān)注。 卷積神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 11-15 14:52 ?835次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的基本原理與算法

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)是一類包含卷積計算且具有深度結(jié)構(gòu)的前饋神經(jīng)網(wǎng)絡(luò)(Feedforward Neural Networks
    的頭像 發(fā)表于 11-15 14:47 ?1764次閱讀

    RNN模型與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的區(qū)別

    神經(jīng)網(wǎng)絡(luò)是機(jī)器學(xué)習(xí)領(lǐng)域中的一種強(qiáng)大工具,它們能夠模擬人腦處理信息的方式。隨著技術(shù)的發(fā)展,神經(jīng)網(wǎng)絡(luò)的類型也在不斷增加,其中循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)和傳統(tǒng)
    的頭像 發(fā)表于 11-15 09:42 ?1121次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)優(yōu)缺點分析

    長短期記憶(Long Short-Term Memory, LSTM)神經(jīng)網(wǎng)絡(luò)是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),由Hochreiter和Schmidhuber在1997年提出。LSTM因其在處理
    的頭像 發(fā)表于 11-13 09:57 ?4796次閱讀

    關(guān)于卷積神經(jīng)網(wǎng)絡(luò),這些概念你厘清了么~

    隨著人工智能(AI)技術(shù)的快速發(fā)展,AI可以越來越多地支持以前無法實現(xiàn)或者難以實現(xiàn)的應(yīng)用。本文基于此解釋了 卷積神經(jīng)網(wǎng)絡(luò) (CNN)及其對人工智能和機(jī)器學(xué)習(xí)的意義。CNN是一種能夠從復(fù)雜數(shù)據(jù)中提
    發(fā)表于 10-24 13:56

    【飛凌嵌入式OK3576-C開發(fā)板體驗】RKNN神經(jīng)網(wǎng)絡(luò)-車牌識別

    LPRNet基于深層神經(jīng)網(wǎng)絡(luò)設(shè)計,通過輕量級的卷積神經(jīng)網(wǎng)絡(luò)實現(xiàn)車牌識別。它采用端到端的訓(xùn)練方式,不依賴字符分割,能夠直接處理整張車牌圖像,并輸出最終的字符序列。這種設(shè)計提高了識別的實時性和準(zhǔn)確性
    發(fā)表于 10-10 16:40

    UNet模型屬于哪種神經(jīng)網(wǎng)絡(luò)

    U-Net模型屬于卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)的一種特殊形式 。它最初由德國弗萊堡大學(xué)計算機(jī)科學(xué)系的研究人員在2015年提出,專為生物醫(yī)學(xué)圖像
    的頭像 發(fā)表于 07-24 10:59 ?5495次閱讀