一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

三種卷積神經(jīng)網(wǎng)絡(luò)模型:Light-CNN,雙分支CNN和預(yù)先訓(xùn)練的CNN

倩倩 ? 來(lái)源:老胡說(shuō)科學(xué) ? 2020-04-17 10:55 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

上海電力大學(xué)的兩位研究人員最近開(kāi)發(fā)并評(píng)估了野生人臉表情識(shí)別(FER)的新神經(jīng)網(wǎng)絡(luò)模型。他們的研究發(fā)表在Elsevier的Neurocomputing期刊上,提出了三種卷積神經(jīng)網(wǎng)絡(luò)(CNN)模型:Light-CNN,雙分支CNN和預(yù)先訓(xùn)練的CNN。

“由于缺乏關(guān)于非正面的信息,野外的FER是計(jì)算機(jī)視覺(jué)中的一個(gè)難點(diǎn),”進(jìn)行這項(xiàng)研究的研究人員之一錢永生告訴TechXplore?!盎谏疃染矸e神經(jīng)網(wǎng)絡(luò)(CNN)的現(xiàn)有自然面部表情識(shí)別方法存在一些問(wèn)題,包括過(guò)擬合,高計(jì)算復(fù)雜度,單一特征和有限樣本?!?/p>

盡管許多研究人員已經(jīng)開(kāi)發(fā)了用于FER的CNN方法,但到目前為止,他們中很少有人試圖確定哪種類型的網(wǎng)絡(luò)最適合這一特定任務(wù)。意識(shí)到文獻(xiàn)中的這種差距,永勝和他的同事邵杰為FER開(kāi)發(fā)了三種不同的CNN,并進(jìn)行了一系列的評(píng)估,以確定他們的優(yōu)勢(shì)和劣勢(shì)。

“我們的第一個(gè)模型是淺光CNN,它引入了一個(gè)深度可分離的模塊和剩余的網(wǎng)絡(luò)模塊,通過(guò)改變卷積方法來(lái)減少網(wǎng)絡(luò)參數(shù),”永勝說(shuō)?!暗诙€(gè)是雙分支CNN,它結(jié)合了全局特征和局部紋理特征,試圖獲得更豐富的特征并補(bǔ)償卷積旋轉(zhuǎn)不變性的缺乏。第三個(gè)預(yù)訓(xùn)練的CNN使用在同一個(gè)分布式大型數(shù)據(jù)庫(kù)中訓(xùn)練的權(quán)重重新培訓(xùn)自己的小型數(shù)據(jù)庫(kù),縮短培訓(xùn)時(shí)間,提高識(shí)別率。“

研究人員對(duì)三種常用于FER的數(shù)據(jù)集進(jìn)行了CNN模型的廣泛評(píng)估:公共CK +,多視圖BU-3DEF和FER2013數(shù)據(jù)集。盡管三種CNN模型在性能上存在差異,但它們都取得了可喜的成果,優(yōu)于幾種最先進(jìn)的FER方法。

“目前,這三種CNN型號(hào)是分開(kāi)使用的,”永勝解釋說(shuō)?!皽\網(wǎng)絡(luò)更適合嵌入式硬件。預(yù)訓(xùn)練的CNN可以獲得更好的效果,但需要預(yù)先訓(xùn)練的權(quán)重。雙分支網(wǎng)絡(luò)不是很有效。當(dāng)然,也可以嘗試使用這三種模式一起?!?/p>

在他們的評(píng)估中,研究人員觀察到,通過(guò)組合剩余網(wǎng)絡(luò)模塊和深度可分離模塊,就像他們?yōu)榈谝粋€(gè)CNN模型所做的那樣,可以減少網(wǎng)絡(luò)參數(shù)。這最終可以解決計(jì)算硬件的一些缺點(diǎn)。此外,他們發(fā)現(xiàn)預(yù)先訓(xùn)練的CNN 模型將大型數(shù)據(jù)庫(kù)轉(zhuǎn)移到自己的數(shù)據(jù)庫(kù),因此可以用有限的樣本進(jìn)行訓(xùn)練。

永勝和杰提出的三個(gè)針對(duì)FER的CNN可以有許多應(yīng)用,例如,幫助開(kāi)發(fā)能夠識(shí)別他們正在與之交互的人的面部表情的機(jī)器人。研究人員現(xiàn)在計(jì)劃對(duì)他們的模型進(jìn)行額外調(diào)整,以進(jìn)一步提高他們的表現(xiàn)。

“在我們未來(lái)的工作中,我們將嘗試添加不同的傳統(tǒng)手動(dòng)功能,加入雙分支CNN并改變?nèi)诤夏J?,”永勝說(shuō)?!拔覀冞€將使用跨數(shù)據(jù)庫(kù)培訓(xùn)網(wǎng)絡(luò)參數(shù)來(lái)獲得更好的泛化能力,并采用更有效的深度傳輸學(xué)習(xí)方法?!?/p>

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    自動(dòng)駕駛感知系統(tǒng)中卷積神經(jīng)網(wǎng)絡(luò)原理的疑點(diǎn)分析

    背景 卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNN)的核心技術(shù)主要包括以下幾個(gè)方面:局部連接、權(quán)值共享、多卷積核以及池化。這些技術(shù)共同作用,使得
    的頭像 發(fā)表于 04-07 09:15 ?360次閱讀
    自動(dòng)駕駛感知系統(tǒng)中<b class='flag-5'>卷積</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>原理的疑點(diǎn)分析

    BP神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)的比較

    BP神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)在多個(gè)方面存在顯著差異,以下是對(duì)兩者的比較: 一、結(jié)構(gòu)特點(diǎn) BP神經(jīng)網(wǎng)絡(luò) : BP神經(jīng)網(wǎng)絡(luò)是一
    的頭像 發(fā)表于 02-12 15:53 ?659次閱讀

    如何訓(xùn)練BP神經(jīng)網(wǎng)絡(luò)模型

    BP(Back Propagation)神經(jīng)網(wǎng)絡(luò)是一經(jīng)典的人工神經(jīng)網(wǎng)絡(luò)模型,其訓(xùn)練過(guò)程主要分為兩個(gè)階段:前向傳播和反向傳播。以下是
    的頭像 發(fā)表于 02-12 15:10 ?903次閱讀

    AI模型部署邊緣設(shè)備的奇妙之旅:目標(biāo)檢測(cè)模型

    通道數(shù)時(shí)表現(xiàn)更好。 2.3 神經(jīng)網(wǎng)絡(luò)的相關(guān)知識(shí)點(diǎn) 2.3.1 卷積的基本概念 卷積是一數(shù)學(xué)運(yùn)算,在計(jì)算機(jī)視覺(jué)中被廣泛應(yīng)用于特征提取。它通過(guò)一個(gè)小型矩陣(稱為
    發(fā)表于 12-19 14:33

    FPAG技術(shù)問(wèn)題合集

    1D-CNN,還有哪些神經(jīng)網(wǎng)絡(luò)算法可以在FPGA上加速? A :以下是一個(gè)基于 FPGA 的一維卷積神經(jīng)網(wǎng)絡(luò)(1D-CNN)算法加速實(shí)現(xiàn)的案
    的頭像 發(fā)表于 12-07 10:05 ?675次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)工具與框架

    : TensorFlow是由Google Brain團(tuán)隊(duì)開(kāi)發(fā)的開(kāi)源機(jī)器學(xué)習(xí)框架,它支持多種深度學(xué)習(xí)模型的構(gòu)建和訓(xùn)練,包括卷積神經(jīng)網(wǎng)絡(luò)。TensorFlow以其靈活性和可擴(kuò)展性而聞名,適
    的頭像 發(fā)表于 11-15 15:20 ?666次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的參數(shù)調(diào)整方法

    卷積神經(jīng)網(wǎng)絡(luò)因其在處理具有空間層次結(jié)構(gòu)的數(shù)據(jù)時(shí)的卓越性能而受到青睞。然而,CNN的成功很大程度上依賴于其參數(shù)的合理設(shè)置。參數(shù)調(diào)整是一個(gè)復(fù)雜的過(guò)程,涉及到多個(gè)超參數(shù)的選擇和優(yōu)化。 網(wǎng)絡(luò)
    的頭像 發(fā)表于 11-15 15:10 ?1204次閱讀

    使用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行圖像分類的步驟

    使用卷積神經(jīng)網(wǎng)絡(luò)CNN)進(jìn)行圖像分類是一個(gè)涉及多個(gè)步驟的過(guò)程。 1. 問(wèn)題定義 確定目標(biāo) :明確你想要分類的圖像類型,例如貓和狗、不同的植物種類等。 數(shù)據(jù)需求 :確定需要多少數(shù)據(jù)以及數(shù)據(jù)的類型
    的頭像 發(fā)表于 11-15 15:01 ?843次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)在自然語(yǔ)言處理中的應(yīng)用

    自然語(yǔ)言處理是人工智能領(lǐng)域的一個(gè)重要分支,它致力于使計(jì)算機(jī)能夠理解、解釋和生成人類語(yǔ)言。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,卷積神經(jīng)網(wǎng)絡(luò)(CNNs)作為一強(qiáng)大的
    的頭像 發(fā)表于 11-15 14:58 ?802次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的比較

    在深度學(xué)習(xí)領(lǐng)域,神經(jīng)網(wǎng)絡(luò)模型被廣泛應(yīng)用于各種任務(wù),如圖像識(shí)別、自然語(yǔ)言處理和游戲智能等。其中,卷積神經(jīng)網(wǎng)絡(luò)(CNNs)和傳統(tǒng)神經(jīng)網(wǎng)絡(luò)是兩
    的頭像 發(fā)表于 11-15 14:53 ?1865次閱讀

    深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)模型

    深度學(xué)習(xí)近年來(lái)在多個(gè)領(lǐng)域取得了顯著的進(jìn)展,尤其是在圖像識(shí)別、語(yǔ)音識(shí)別和自然語(yǔ)言處理等方面。卷積神經(jīng)網(wǎng)絡(luò)作為深度學(xué)習(xí)的一個(gè)分支,因其在圖像處理任務(wù)中的卓越性能而受到廣泛關(guān)注。 卷積
    的頭像 發(fā)表于 11-15 14:52 ?844次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的基本原理與算法

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)是一類包含卷積計(jì)算且具有深度結(jié)構(gòu)的前饋神經(jīng)網(wǎng)絡(luò)(Feedf
    的頭像 發(fā)表于 11-15 14:47 ?1772次閱讀

    關(guān)于卷積神經(jīng)網(wǎng)絡(luò),這些概念你厘清了么~

    隨著人工智能(AI)技術(shù)的快速發(fā)展,AI可以越來(lái)越多地支持以前無(wú)法實(shí)現(xiàn)或者難以實(shí)現(xiàn)的應(yīng)用。本文基于此解釋了 卷積神經(jīng)網(wǎng)絡(luò) (CNN)及其對(duì)人工智能和機(jī)器學(xué)習(xí)的意義。CNN是一
    發(fā)表于 10-24 13:56

    UNet模型屬于哪種神經(jīng)網(wǎng)絡(luò)

    U-Net模型屬于卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)的一特殊形式 。它最初由德國(guó)弗萊堡大學(xué)
    的頭像 發(fā)表于 07-24 10:59 ?5533次閱讀

    ai大模型訓(xùn)練方法有哪些?

    方法增加數(shù)據(jù)多樣性。 模型選擇 選擇合適的神經(jīng)網(wǎng)絡(luò)架構(gòu),如卷積神經(jīng)網(wǎng)絡(luò)CNN)、循環(huán)神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-16 10:11 ?3158次閱讀