一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

分享一種基于深度圖像梯度的線特征提取算法download

jf_pmFSk4VX ? 來源:GiantPandaCV ? 2023-01-08 14:29 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

0. 筆者個人體會

在低紋理區(qū)域,傳統(tǒng)的基于特征點(diǎn)的SfM/SLAM/三維重建算法很容易失敗。因此很多算法會嘗試去提取線特征來提高點(diǎn)特征的魯棒性,典型操作就是LSD。

但在一些帶噪聲的低光照環(huán)境下,LSD很容易失效。而且線特征檢測的難點(diǎn)在于,由于遮擋,線端點(diǎn)的精確定位很難獲得。

它使用深度學(xué)習(xí)來處理圖像并丟棄不必要的細(xì)節(jié),然后使用手工方法來檢測線段。

因此,DeepLSD不僅對光照和噪聲具有更強(qiáng)魯棒性,同時保留了經(jīng)典方法的準(zhǔn)確性。整篇文章的推導(dǎo)和實驗非常詳實,重要的是算法已經(jīng)開源!

2. 摘要

線段在我們的人造世界中無處不在,并且越來越多地用于視覺任務(wù)中。由于它們提供的空間范圍和結(jié)構(gòu)信息,它們是特征點(diǎn)的補(bǔ)充。

基于圖像梯度的傳統(tǒng)線檢測器非常快速和準(zhǔn)確,但是在噪聲圖像和挑戰(zhàn)性條件下缺乏魯棒性。他們有經(jīng)驗的同行更具可重復(fù)性,可以處理具有挑戰(zhàn)性的圖像,但代價是精確度較低,偏向線框線。

我們建議將傳統(tǒng)方法和學(xué)習(xí)方法結(jié)合起來,以獲得兩個世界的最佳效果:一個準(zhǔn)確而魯棒的線檢測器,可以在沒有真值線的情況下在野外訓(xùn)練。

我們的新型線段檢測器DeepLSD使用深度網(wǎng)絡(luò)處理圖像,以生成線吸引力場,然后將其轉(zhuǎn)換為替代圖像梯度幅度和角度,再饋入任何現(xiàn)有的手工線檢測器。

此外,我們提出了一個新的優(yōu)化工具,以完善基于吸引力場和消失點(diǎn)的線段。

這種改進(jìn)大大提高了當(dāng)前深度探測器的精度。我們展示了我們的方法在低級線檢測度量上的性能,以及在使用多挑戰(zhàn)數(shù)據(jù)集的幾個下游任務(wù)上的性能。

3. 算法解讀

作者將深度網(wǎng)絡(luò)的魯棒性與手工制作的線特征檢測器的準(zhǔn)確性結(jié)合起來。具體來說,有如下四步:

(1) 通過引導(dǎo)LSD生成真實線距離和角度場(DF/AF)。

(2) 訓(xùn)練深度網(wǎng)絡(luò)以預(yù)測線吸引場DF/AF,然后將其轉(zhuǎn)換為替代圖像梯度。

(3) 利用手工LSD提取線段。

(4) 基于吸引場DF/AF進(jìn)行細(xì)化。

8c1a4daa-8e4d-11ed-bfe3-dac502259ad0.png

圖1 方法概述

作者所做主要貢獻(xiàn)如下:

(1) 提出了一種自舉當(dāng)前檢測器的方法來在任意圖像上創(chuàng)建真實線吸引場。

(2) 引入了一個優(yōu)化過程,可以同時優(yōu)化線段和消失點(diǎn)。這種優(yōu)化可以作為一種獨(dú)立的細(xì)化來提高任何現(xiàn)有的深度線檢測器的精度。

(3) 在多個需要線特征的下游任務(wù)中,通過結(jié)合深度學(xué)習(xí)方法的魯棒性和手工方法在單個pipeline中的精度,創(chuàng)造了新的記錄。

3.1 線吸引場

最早通過吸引場表示線段的方法是AFM,為圖像的每個像素回歸一個2D向量場,來表示直線上最近點(diǎn)的相對位置。

該方法允許將離散量(線段)表示為適合深度學(xué)習(xí)的平滑2通道圖像。然而,這種表示方法并不是獲得精確線段的最佳方法。

如圖2所示,比如HAWP那樣直接預(yù)測端點(diǎn)的位置需要很大的感受野,以便能夠從遙遠(yuǎn)的端點(diǎn)獲取信息。

8c27bb5c-8e4d-11ed-bfe3-dac502259ad0.png

圖2 吸引場參數(shù)化。(a)對二維向量進(jìn)行參數(shù)化可能會對小向量模產(chǎn)生噪聲角。(b) 向端點(diǎn)添加偏移量需要長程信息且對噪聲端點(diǎn)不具有魯棒性。作者提出將距離場(c)和線角度場(d)解耦。

而DeepLSD這項工作的巧妙之處在于,作者提出將網(wǎng)絡(luò)限制在一個較小的感受野,并使用傳統(tǒng)的啟發(fā)式方法來確定端點(diǎn)。

DeepLSD采用和HAWP類似的吸引場,但沒有額外的兩個指向端點(diǎn)的角度,只保留線距離場(DF)和線角度場(AF)。其中線距離場DF給出當(dāng)前像素到直線上最近點(diǎn)的距離,線角度場AF返回最近直線的方向:

8c35c1fc-8e4d-11ed-bfe3-dac502259ad0.png

3.2 真值生成

為了學(xué)習(xí)線吸引場,需要ground truth。AFM和HAWP都是使用線框數(shù)據(jù)集的真值來監(jiān)督。但DeepLSD的作者探索了一種新的方法,即通過引導(dǎo)先前的線檢測器來獲取真值。

具體來說,就是通過單應(yīng)性自適應(yīng)生成真值吸引場。給定單幅輸入圖像I,將其與N個隨機(jī)單應(yīng)矩陣Hi進(jìn)行wrap,在所有wrap后的圖像Ii中使用LSD檢測直線段,然后將其wrap回到I來得到線集合Li。

下一步是將所有的線聚合在一起,這一部分是個難點(diǎn)。作者的做法是將線條集合Li轉(zhuǎn)換為距離場Di和角度場Ai,并通過取所有圖像中每個像素(u, v)的中值來聚合:

8c42bede-8e4d-11ed-bfe3-dac502259ad0.png

通過取中值,可以去除僅在少數(shù)圖像中檢測到的噪聲,結(jié)果如圖3所示。

8c60f9b2-8e4d-11ed-bfe3-dac502259ad0.png

圖3 偽GT可視化

3.3 學(xué)習(xí)線吸引場

為了回歸距離場和角度場,DeepLSD使用了UNet架構(gòu),尺寸為HxW的輸入圖像經(jīng)多個卷積層處理,并通過連續(xù)3次平均池化操作逐步降采樣至8倍。

然后通過另一系列卷積層和雙線性插值將特征放大回原始分辨率。得到的深度特征被分成兩個分支,一個輸出距離場,一個輸出角度場。最后距離場通過反歸一化得到:

8c6eafbc-8e4d-11ed-bfe3-dac502259ad0.png

其中r是像素中的一個參數(shù),它定義了每條線周圍的區(qū)域。由于手工方法主要需要線段附近的梯度信息,因此DeepLSD只對距離線段小于r個像素的像素進(jìn)行監(jiān)督。

總損失為距離場和角度場的損失之和:

8c7dc056-8e4d-11ed-bfe3-dac502259ad0.png

這里就沒啥可說的了,LD為歸一化距離場之間的L1損失,LA為L2角度損失:

8c8acb7a-8e4d-11ed-bfe3-dac502259ad0.png

3.4.提取線段

由于LSD是基于圖像梯度的,因此需要將距離場和角度場轉(zhuǎn)換為替代圖像梯度幅度和角度:

8c9c3c70-8e4d-11ed-bfe3-dac502259ad0.png

AFM和LSD方法的一個重要區(qū)別是梯度方向。對于黑暗與明亮區(qū)域分離的邊緣,LSD跟蹤從暗到亮的梯度方向,而AFM不跟蹤。

如圖4所示,當(dāng)幾條平行線以暗-亮-暗或亮-暗-亮的模式相鄰出現(xiàn)時,這就變得很重要。

為了更好的精度和尺度不變性,DeepLSD檢測這些雙邊緣,并構(gòu)造角度方向:

8ca9eab4-8e4d-11ed-bfe3-dac502259ad0.png

8cb7df34-8e4d-11ed-bfe3-dac502259ad0.png

圖4 區(qū)分雙邊緣。(a) 亮-暗-亮邊緣和定向角度場的示例。(b) HAWP將其視為一條直線。(c) 為了準(zhǔn)確,DeepLSD將其檢測為兩條線。

為了使線特征更加精確,作者還提出了一個優(yōu)化步驟,即利用第二步預(yù)測的DF和AF來細(xì)化。需要注意的是,這種優(yōu)化方法也可以用來增強(qiáng)任何其他深度探測器的線特征。

優(yōu)化的核心思路是,在3D中平行的線將共享消失點(diǎn)。因此DeepLSD將其作為軟約束融入到優(yōu)化中,有效地降低了自由度。

首先利用多模型擬合算法Progressive-X計算一組與預(yù)測線段相關(guān)的消失點(diǎn)(VPs)。然后對每條線段獨(dú)立進(jìn)行優(yōu)化,損失函數(shù)是三種不同成本的加權(quán)無約束最小二乘最小化:

8cc5e7dc-8e4d-11ed-bfe3-dac502259ad0.png8cd3418e-8e4d-11ed-bfe3-dac502259ad0.png

4. 實驗

作者訓(xùn)練了DeepLSD的兩個版本,一個在室內(nèi)Wireframe數(shù)據(jù)集,沒有使用GT線,一個室外MegaDepth數(shù)據(jù)集。

MegaDepth數(shù)據(jù)集保留150個場景用于訓(xùn)練,17個場景用于驗證,每個場景只采集50張圖像。

在實驗細(xì)節(jié)上,使用Adam優(yōu)化器和初始學(xué)習(xí)率為1e3,學(xué)習(xí)率調(diào)整策略為,當(dāng)損失函數(shù)到達(dá)一定數(shù)值時學(xué)習(xí)率/10。

硬件條件為,在NVIDIA RTX 2080 GPU上訓(xùn)練時間12小時。

4.1 直線檢測性能

作者首先在HPatches數(shù)據(jù)集和RDNIM數(shù)據(jù)集上評估直線檢測性能,其中HPatches數(shù)據(jù)集具有不同的光照和視點(diǎn)變化,RDNIM數(shù)據(jù)集具有挑戰(zhàn)性的晝夜變化相關(guān)的圖像對。

評價指標(biāo)為重復(fù)性、定位誤差以及單應(yīng)估計分?jǐn)?shù)。重復(fù)性(Rep)衡量匹配誤差在3個像素以下的直線的比例,定位誤差(LE)返回50個最準(zhǔn)確匹配的平均距離。表1和圖5所示是與經(jīng)典線特征檢測器的對比結(jié)果。

表1 在HPatches和RDNIM數(shù)據(jù)集上的直線檢測評估

8ce0171a-8e4d-11ed-bfe3-dac502259ad0.png8ced81c0-8e4d-11ed-bfe3-dac502259ad0.png

圖5 線段檢測示例

從結(jié)果來看,以TPLSD為首的學(xué)習(xí)方法具有較好的可重復(fù)性,但存在較低的定位誤差和不準(zhǔn)確的單應(yīng)矩陣估計。

手工方法和DeepLSD由于不直接對端點(diǎn)進(jìn)行回歸,而是利用非常低的細(xì)節(jié)逐步增長線段,因此精度更高。

當(dāng)變化最具挑戰(zhàn)性時,DeepLSD比LSD表現(xiàn)出最好的改善,即在晝夜變化強(qiáng)烈的RDNIM上。

可以顯著提高定位誤差和單應(yīng)性估計分?jǐn)?shù)。LSDNet由于通過將圖像縮放到固定的低分辨率而失去了準(zhǔn)確性。

總體而言,DeepLSD在手工方法和學(xué)習(xí)方法之間提供了最佳的權(quán)衡,并且在單應(yīng)性估計的下游任務(wù)中始終排名第一。

4.2 重建及定位

這項工作除了評估自身的線特征生成質(zhì)量外,還進(jìn)行了三維重建對比。作者利用Line3D++獲取一組已知姿態(tài)的圖像和相關(guān)的2D線段,并輸出線條的三維重建。

作者在Hypersim數(shù)據(jù)集的前4個場景上將DeepLSD與幾個基線進(jìn)行比較。其中召回R為距離網(wǎng)格5 mm以內(nèi)的所有線段的長度,單位為米,越高意味著許多線條被重建。精度P是距離網(wǎng)格5毫米以內(nèi)的預(yù)測線的百分比,越高表明大部分預(yù)測的直線在真實的三維表面上。

結(jié)果如表2所示,DeepLSD總體上獲得了最好的召回和精度。TP-LSD雖然在召回上排名第一,但是能夠恢復(fù)的直線很少,其平均精度比DeepLSD小71 %。

值得注意的是,DeepLSD比LSD能夠重建更多的直線,且精度更高。

表2 線三維重建對比結(jié)果

8cfe6e5e-8e4d-11ed-bfe3-dac502259ad0.png

作者在7Scenes數(shù)據(jù)集上進(jìn)行了定位實驗,估計位姿精度,其中Stairs場景對于特征點(diǎn)的定位非常具有挑戰(zhàn)性。

圖6表明,DeepLSD在這個具有挑戰(zhàn)性的數(shù)據(jù)集上獲得了最好的性能。

與僅使用點(diǎn)相比,可以突出線特征帶來的性能的大幅提升。在室內(nèi)環(huán)境中,線特征提取并定位的性能良好,即使在低紋理場景中也可以匹配。

8d09a260-8e4d-11ed-bfe3-dac502259ad0.png

圖6 7Scenes數(shù)據(jù)集樓梯的視覺定位結(jié)果

4.3 線優(yōu)化的影響

作者還研究了優(yōu)化步驟的影響。對于每種方法,作者將原始線條與優(yōu)化后的線條和VP進(jìn)行比較。

表3展示了線檢測器在Wireframe測試集的462張圖像上的檢測結(jié)果。結(jié)果顯示,優(yōu)化可以顯著改善不精確方法的定位誤差和單應(yīng)性得分,并顯著提高評價直線精度的所有指標(biāo)。

特別是對于HAWP和TP-LSD,兩者的定位誤差都下降了32 %,單應(yīng)性得分提高了27 %和39 %。

注意,優(yōu)化并沒有給DeepLSD帶來多大提升,這是因為它的原始預(yù)測線已經(jīng)是亞像素精確的,并且優(yōu)化受到DF和AF分辨率的限制。

表3 Wireframe數(shù)據(jù)集上的線優(yōu)化

8d17967c-8e4d-11ed-bfe3-dac502259ad0.png

4.4 消融研究

作者在HPatches數(shù)據(jù)集上用低級別檢測器指標(biāo)驗證了設(shè)計選擇,將DeepLSD與單邊相同模型進(jìn)行比較。表4展示了各組成部分的重要性。

值得注意的是,在DeepLSD上重新訓(xùn)練HAWP會導(dǎo)致較差的結(jié)果,因為與線框線相比,線條的數(shù)量更多,而且一般的直線往往有噪聲的端點(diǎn),因此預(yù)測到兩個端點(diǎn)的角度也是有噪聲的。

表4 HPatches數(shù)據(jù)集上的消融實驗

8d2557b2-8e4d-11ed-bfe3-dac502259ad0.png

5. 結(jié)論

作者提出了一種混合線段檢測器,結(jié)合了深度學(xué)習(xí)的魯棒性和手工檢測器的準(zhǔn)確性,并使用學(xué)習(xí)的替代圖像梯度作為中間表示。還提出了一種可以應(yīng)用于現(xiàn)有深度檢測器的優(yōu)化方法,彌補(bǔ)了深度檢測器和手工檢測器之間的線局部化的差距。





審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 檢測器
    +關(guān)注

    關(guān)注

    1

    文章

    894

    瀏覽量

    48709
  • SLAM
    +關(guān)注

    關(guān)注

    24

    文章

    441

    瀏覽量

    32509
  • AFM
    AFM
    +關(guān)注

    關(guān)注

    0

    文章

    60

    瀏覽量

    20477

原文標(biāo)題:DeepLSD:基于深度圖像梯度的線段檢測和細(xì)化

文章出處:【微信號:GiantPandaCV,微信公眾號:GiantPandaCV】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    一種基于點(diǎn)、和消失點(diǎn)特征的單目SLAM系統(tǒng)設(shè)計

    本文提出了一種穩(wěn)健的單目視覺SLAM系統(tǒng),該系統(tǒng)同時利用點(diǎn)、和消失點(diǎn)特征來進(jìn)行精確的相機(jī)位姿估計和地圖構(gòu)建,有效解決了傳統(tǒng)基于點(diǎn)特征的SLAM的局限性。
    的頭像 發(fā)表于 03-21 17:07 ?465次閱讀
    <b class='flag-5'>一種</b>基于點(diǎn)、<b class='flag-5'>線</b>和消失點(diǎn)<b class='flag-5'>特征</b>的單目SLAM系統(tǒng)設(shè)計

    給個思路也可以(不知道這個無線通信模塊怎么實現(xiàn))

    有償定做個智能考勤機(jī) 要求:(1)指紋模塊:采集指紋圖像和傳輸指紋信息,對指紋圖像進(jìn)行預(yù)處理,消除噪聲干擾,還原圖像的真實特征信息。完成
    發(fā)表于 03-21 16:50

    基于高光譜深度特征的油菜葉片鋅含量檢測

    為了實現(xiàn)油菜葉片鋅含量的快速無損檢測,該研究采用一種基于高光譜成像技術(shù)結(jié)合深度遷移學(xué)習(xí)算法的高精度檢測方法,通過無土栽培的方式,利用高光譜成像設(shè)備采集油菜葉片樣本高光譜圖像信息,并將整
    的頭像 發(fā)表于 02-24 18:03 ?363次閱讀
    基于高光譜<b class='flag-5'>深度</b><b class='flag-5'>特征</b>的油菜葉片鋅含量檢測

    人臉識別技術(shù)的算法原理解析

    基于人的面部特征,通過計算機(jī)算法來識別或驗證個人身份。這項技術(shù)通常包括以下幾個步驟:人臉檢測、特征提取、特征比對和身份確認(rèn)。 2. 人臉檢測 人臉檢測是人臉識別流程的第
    的頭像 發(fā)表于 02-06 17:50 ?1766次閱讀

    使用機(jī)器學(xué)習(xí)改善庫特征提取的質(zhì)量和運(yùn)行時間

    基于靜態(tài)時序分析(STA)的現(xiàn)代設(shè)計流程非常依賴標(biāo)準(zhǔn)單元、IO、存儲器和定制模塊的特征化Liberty模型。高效、準(zhǔn)確的庫特征提取是全芯片或模塊級設(shè)計流程的關(guān)鍵步驟之,因為它能確保所有庫單元在所
    的頭像 發(fā)表于 12-26 11:15 ?469次閱讀
    使用機(jī)器學(xué)習(xí)改善庫<b class='flag-5'>特征提取</b>的質(zhì)量和運(yùn)行時間

    AI模型部署邊緣設(shè)備的奇妙之旅:目標(biāo)檢測模型

    通道數(shù)時表現(xiàn)更好。 2.3 神經(jīng)網(wǎng)絡(luò)的相關(guān)知識點(diǎn) 2.3.1 卷積的基本概念 卷積是一種數(shù)學(xué)運(yùn)算,在計算機(jī)視覺中被廣泛應(yīng)用于特征提取。它通過個小型矩陣(稱為卷積核或濾波器)與輸入圖像
    發(fā)表于 12-19 14:33

    在RK3568教學(xué)實驗箱上實現(xiàn)基于YOLOV5的算法物體識別案例詳解

    、實驗?zāi)康?本節(jié)視頻的目的是了解YOLOv5模型的用途及流程,并掌握基于YOLOV5算法實現(xiàn)物體識別的方法。 二、實驗原理 YOLO(You Only Look Once?。?YOLOv5 是一種
    發(fā)表于 12-03 14:56

    卷積神經(jīng)網(wǎng)絡(luò)的基本原理與算法

    ),是深度學(xué)習(xí)的代表算法。 、基本原理 卷積運(yùn)算 卷積運(yùn)算是卷積神經(jīng)網(wǎng)絡(luò)的核心,用于提取圖像
    的頭像 發(fā)表于 11-15 14:47 ?1785次閱讀

    一種基于因果路徑的層次圖卷積注意力網(wǎng)絡(luò)

    機(jī)電系統(tǒng)中數(shù)據(jù)驅(qū)動故障檢測模型的性能和可解釋性。引入了一種混合因果發(fā)現(xiàn)算法來發(fā)現(xiàn)監(jiān)測變量之間的繼承因果關(guān)系。順序連接因果變量的因果路徑用作接收場,使用多尺度卷積來提取特征?;诜謱幼⒁?/div>
    的頭像 發(fā)表于 11-12 09:52 ?1073次閱讀
    <b class='flag-5'>一種</b>基于因果路徑的層次圖卷積注意力網(wǎng)絡(luò)

    一種基于深度學(xué)習(xí)的二維拉曼光譜算法

    近日,天津大學(xué)精密儀器與光電子工程學(xué)院的光子芯片實驗室提出了一種基于深度學(xué)習(xí)的二維拉曼光譜算法,成果以“Rapid and accurate bacteria identification
    的頭像 發(fā)表于 11-07 09:08 ?743次閱讀
    <b class='flag-5'>一種</b>基于<b class='flag-5'>深度</b>學(xué)習(xí)的二維拉曼光譜<b class='flag-5'>算法</b>

    AI大模型在圖像識別中的優(yōu)勢

    大模型借助高性能的計算硬件和優(yōu)化的算法,能夠在短時間內(nèi)完成對大量圖像數(shù)據(jù)的處理和分析,顯著提高了圖像識別的效率。 識別準(zhǔn)確性 :通過深度學(xué)習(xí)和計算機(jī)視覺技術(shù),AI大模型能夠自動
    的頭像 發(fā)表于 10-23 15:01 ?2445次閱讀

    特征工程實施步驟

    數(shù)據(jù)中提取數(shù)值表示以供無監(jiān)督模型使用的方法(例如,試圖從之前非結(jié)構(gòu)化的數(shù)據(jù)集中提取結(jié)構(gòu))。特征工程包括這兩情況,以及更多內(nèi)容。數(shù)據(jù)從業(yè)者通常依賴ML和
    的頭像 發(fā)表于 10-23 08:07 ?922次閱讀
    <b class='flag-5'>特征</b>工程實施步驟

    FPGA在圖像處理領(lǐng)域的優(yōu)勢有哪些?

    單元和可編程互聯(lián),可以實現(xiàn)高度并行的數(shù)據(jù)處理。在圖像處理任務(wù)中,如圖像預(yù)處理、特征提取圖像識別等,需要大量的計算任務(wù)。FPGA可以通過并
    發(fā)表于 10-09 14:36

    深度識別算法包括哪些內(nèi)容

    :CNN是深度學(xué)習(xí)中處理圖像和視頻等具有網(wǎng)格結(jié)構(gòu)數(shù)據(jù)的主要算法。它通過卷積層、池化層和全連接層等組件,實現(xiàn)對圖像特征的自動
    的頭像 發(fā)表于 09-10 15:28 ?844次閱讀

    深度識別人臉識別在任務(wù)中為什么有很強(qiáng)大的建模能力

    通過大量數(shù)據(jù)進(jìn)行訓(xùn)練,能夠自動學(xué)習(xí)到人臉的特征表示,而不需要人為設(shè)計特征提取算法。 多層神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu) :深度學(xué)習(xí)模型通常包含多層神經(jīng)網(wǎng)絡(luò),這使得模型能夠捕捉到人臉的復(fù)雜
    的頭像 發(fā)表于 09-10 14:53 ?842次閱讀