一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

卷積神經(jīng)網(wǎng)絡(luò)的主要兩個特征

汽車玩家 ? 來源:CSDN ? 作者:dulingwen ? 2020-05-04 18:24 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

卷積神經(jīng)網(wǎng)絡(luò)(CNN)是一種目前計算機視覺領(lǐng)域廣泛使用的深度學(xué)習(xí)網(wǎng)絡(luò),與傳統(tǒng)的人工神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)不同,它包含有非常特殊的卷積層和降采樣層(有些文章和書籍里又稱之為池化層、匯合層),其中卷積層和前一層采用局部連接和權(quán)值共享的方式進(jìn)行連接,從而大大降低了參數(shù)數(shù)量。降采樣層可以大幅降低輸入維度,從而降低網(wǎng)絡(luò)復(fù)雜度,使網(wǎng)絡(luò)具有更高的魯棒性,同時能夠有效的防止過擬合。由于以上設(shè)計,卷積網(wǎng)絡(luò)主要用來識別縮放,位移以及其他形式扭曲不變的二維圖形,并且可以直接以原始圖片作為輸入,而無需進(jìn)行復(fù)雜的預(yù)處理工作。

卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)

常見的卷積網(wǎng)絡(luò)前面幾層是卷積層和降采樣層交替出現(xiàn)的,然后跟著一定數(shù)量的全連接層。如圖所示,這是著名的LeNet-5卷積神經(jīng)網(wǎng)絡(luò),在上世紀(jì)90年代,它被大量應(yīng)用于手寫數(shù)字的識別。這個網(wǎng)絡(luò)一共含有7層(不包含輸入層),輸入是32*32的圖片,C1是卷積層,它含有6個特征圖,每一個的尺寸為28*28,卷積核的尺寸為5*5, S2是一個降采樣層,將輸入由28*28降維成14*14,同樣,C3是一個卷積層,S4為一個降采樣層,后面全部為全連接層。

局部連接與權(quán)值共享

卷積層最主要的兩個特征就是局部連接和權(quán)值共享,有些地方又叫做稀疏連接和參數(shù)共享,總之都是一個意思。所謂局部連接,就是卷積層的節(jié)點僅僅和其前一層的部分節(jié)點相連接,只用來學(xué)習(xí)局部特征。局部感知結(jié)構(gòu)的構(gòu)思理念來源于動物視覺的皮層結(jié)構(gòu),其指的是動物視覺的神經(jīng)元在感知外界物體的過程中起作用的只有一部分神經(jīng)元。在計算機視覺中,圖像中的某一塊區(qū)域中,像素之間的相關(guān)性與像素之間的距離同樣相關(guān),距離較近的像素間相關(guān)性強,距離較遠(yuǎn)則相關(guān)性就比較弱,由此可見局部相關(guān)性理論也適用于計算機視覺的圖像處理領(lǐng)域。因此,局部感知采用部分神經(jīng)元接受圖像信息,再通過綜合全部的圖像信息達(dá)到增強圖像信息的目的。從下圖中我們可以看到,第n+1層的每個節(jié)點只與第n層的3個節(jié)點相連接,而非與前一層全部5個神經(jīng)元節(jié)點相連,這樣原本需要5*3=15個權(quán)值參數(shù),現(xiàn)在只需要3*3=9個權(quán)值參數(shù),減少了40%的參數(shù)量,同樣,第n+2層與第n+1層之間也用同樣的連接方式。這種局部連接的方式大幅減少了參數(shù)數(shù)量,加快了學(xué)習(xí)速率,同時也在一定程度上減少了過擬合的可能。

局部連接

卷積層的另一大特征是權(quán)值共享,比如一個3*3的卷積核,共9個參數(shù),它會和輸入圖片的不同區(qū)域作卷積,來檢測相同的特征。而只有不同的卷積核才會對應(yīng)不同的權(quán)值參數(shù),來檢測不同的特征。如下圖所示,通過權(quán)值共享的方法,這里一共只有3組不同的權(quán)值,如果只用了局部連接的方法,共需要3*4=12個權(quán)值參數(shù),而加上了權(quán)值共享的方法后,現(xiàn)在僅僅需要3個權(quán)值,更進(jìn)一步地減少參數(shù)數(shù)量。

權(quán)值共享

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    BP神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)的比較

    BP神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)在多個方面存在顯著差異,以下是對者的比較: 一、結(jié)構(gòu)特點 BP神經(jīng)網(wǎng)絡(luò) : BP
    的頭像 發(fā)表于 02-12 15:53 ?678次閱讀

    BP神經(jīng)網(wǎng)絡(luò)的優(yōu)缺點分析

    自學(xué)習(xí)能力 : BP神經(jīng)網(wǎng)絡(luò)能夠通過訓(xùn)練數(shù)據(jù)自動調(diào)整網(wǎng)絡(luò)參數(shù),實現(xiàn)對輸入數(shù)據(jù)的分類、回歸等任務(wù),無需人工進(jìn)行復(fù)雜的特征工程。 泛化能力強 : BP神經(jīng)網(wǎng)絡(luò)通過訓(xùn)練數(shù)據(jù)學(xué)習(xí)到的
    的頭像 發(fā)表于 02-12 15:36 ?933次閱讀

    BP神經(jīng)網(wǎng)絡(luò)的基本原理

    BP神經(jīng)網(wǎng)絡(luò)(Back Propagation Neural Network)的基本原理涉及前向傳播和反向傳播兩個核心過程。以下是關(guān)于BP神經(jīng)網(wǎng)絡(luò)基本原理的介紹: 一、網(wǎng)絡(luò)結(jié)構(gòu) BP
    的頭像 發(fā)表于 02-12 15:13 ?873次閱讀

    BP神經(jīng)網(wǎng)絡(luò)在圖像識別中的應(yīng)用

    傳播神經(jīng)網(wǎng)絡(luò)(Back Propagation Neural Network),是一種多層前饋神經(jīng)網(wǎng)絡(luò)主要通過反向傳播算法進(jìn)行學(xué)習(xí)。它通常包括輸入層、一或多個隱藏層和輸出層。BP
    的頭像 發(fā)表于 02-12 15:12 ?686次閱讀

    人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法

    在上一篇文章中,我們介紹了傳統(tǒng)機器學(xué)習(xí)的基礎(chǔ)知識和多種算法。在本文中,我們會介紹人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法,供各位老師選擇。 01 人工神經(jīng)網(wǎng)絡(luò) ? 人工神經(jīng)網(wǎng)絡(luò)模型之所
    的頭像 發(fā)表于 01-09 10:24 ?1218次閱讀
    人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的原理和多種<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>架構(gòu)方法

    卷積神經(jīng)網(wǎng)絡(luò)的實現(xiàn)工具與框架

    卷積神經(jīng)網(wǎng)絡(luò)因其在圖像和視頻處理任務(wù)中的卓越性能而廣受歡迎。隨著深度學(xué)習(xí)技術(shù)的快速發(fā)展,多種實現(xiàn)工具和框架應(yīng)運而生,為研究人員和開發(fā)者提供了強大的支持。 TensorFlow 概述
    的頭像 發(fā)表于 11-15 15:20 ?674次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的參數(shù)調(diào)整方法

    卷積神經(jīng)網(wǎng)絡(luò)因其在處理具有空間層次結(jié)構(gòu)的數(shù)據(jù)時的卓越性能而受到青睞。然而,CNN的成功很大程度上依賴于其參數(shù)的合理設(shè)置。參數(shù)調(diào)整是一復(fù)雜的過程,涉及到多個超參數(shù)的選擇和優(yōu)化。 網(wǎng)絡(luò)
    的頭像 發(fā)表于 11-15 15:10 ?1218次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)在自然語言處理中的應(yīng)用

    。 卷積神經(jīng)網(wǎng)絡(luò)的基本原理 卷積神經(jīng)網(wǎng)絡(luò)是一種前饋神經(jīng)網(wǎng)絡(luò),它通過卷積層來提取輸入數(shù)據(jù)的
    的頭像 發(fā)表于 11-15 14:58 ?810次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的比較

    在深度學(xué)習(xí)領(lǐng)域,神經(jīng)網(wǎng)絡(luò)模型被廣泛應(yīng)用于各種任務(wù),如圖像識別、自然語言處理和游戲智能等。其中,卷積神經(jīng)網(wǎng)絡(luò)(CNNs)和傳統(tǒng)神經(jīng)網(wǎng)絡(luò)種常
    的頭像 發(fā)表于 11-15 14:53 ?1887次閱讀

    深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)模型

    深度學(xué)習(xí)近年來在多個領(lǐng)域取得了顯著的進(jìn)展,尤其是在圖像識別、語音識別和自然語言處理等方面。卷積神經(jīng)網(wǎng)絡(luò)作為深度學(xué)習(xí)的一分支,因其在圖像處理任務(wù)中的卓越性能而受到廣泛關(guān)注。 卷積
    的頭像 發(fā)表于 11-15 14:52 ?856次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的基本原理與算法

    ),是深度學(xué)習(xí)的代表算法之一。 一、基本原理 卷積運算 卷積運算是卷積神經(jīng)網(wǎng)絡(luò)的核心,用于提取圖像中的局部特征。 定義
    的頭像 發(fā)表于 11-15 14:47 ?1795次閱讀

    RNN模型與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的區(qū)別

    神經(jīng)網(wǎng)絡(luò)是機器學(xué)習(xí)領(lǐng)域中的一種強大工具,它們能夠模擬人腦處理信息的方式。隨著技術(shù)的發(fā)展,神經(jīng)網(wǎng)絡(luò)的類型也在不斷增加,其中循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)和傳統(tǒng)神經(jīng)網(wǎng)絡(luò)(如前饋
    的頭像 發(fā)表于 11-15 09:42 ?1140次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)與工作機制

    的結(jié)構(gòu)與工作機制的介紹: 一、LSTM神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu) LSTM神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)主要包括以下幾個部分: 記憶單元(Memory Cell) : 記憶單元是LSTM網(wǎng)絡(luò)的核心,負(fù)責(zé)在整個序列
    的頭像 發(fā)表于 11-13 10:05 ?1641次閱讀

    關(guān)于卷積神經(jīng)網(wǎng)絡(luò),這些概念你厘清了么~

    這個小型網(wǎng)絡(luò),用于描述網(wǎng)絡(luò)的方程中也具有32偏置和32權(quán)重。 CIFAR神經(jīng)網(wǎng)絡(luò)是一種廣泛用于圖像識別的CNN。它
    發(fā)表于 10-24 13:56

    SD NAND芯片的測評與使用 基于卷積神經(jīng)網(wǎng)絡(luò)的數(shù)字識別

    目錄 前言: 簡介: 對照: 測試: 使用: 照片存儲: 基于卷積神經(jīng)網(wǎng)絡(luò)的數(shù)字識別: ———————————————— 前言: 感謝深圳雷龍公司寄送的樣品,其中包括張2代的4gbit
    的頭像 發(fā)表于 07-24 18:08 ?1803次閱讀