一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

技術(shù)文章分享-基于FPGA及深度學(xué)習(xí)的人臉檢測系統(tǒng)設(shè)計(jì)

FPGA技術(shù)江湖 ? 來源:Xilinx開源社區(qū) ? 作者:Xilinx開源社區(qū) ? 2021-12-03 09:26 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

第一部分 設(shè)計(jì)概述

1.1 設(shè)計(jì)目的

新冠病毒的肆虐讓整個(gè) 2020 年籠罩在恐慌之中,戴口罩成了人們外出必備 的“新日常”。新冠病毒主要通過飛沫傳播和接觸傳播,正確選擇佩戴口罩,可有效阻隔病毒傳播。但在人流量龐大的商圈、車站等場所,仍有許多人拒絕佩戴口罩。若能在這些場所進(jìn)行當(dāng)前人群口罩檢測,則能有效避免冠狀病毒的傳播。

本作品是一種能實(shí)時(shí)檢測識別人臉口罩佩戴情況并進(jìn)行語音播報(bào)的系統(tǒng),準(zhǔn)確度高達(dá) 95.2%,系統(tǒng)處理速度可達(dá) 25fps 左右。除此之外,本作品具備較高的可拓展性,稍加更改就可在更多的領(lǐng)域得到應(yīng)用。

1.2 應(yīng)用領(lǐng)域

基于深度學(xué)習(xí)的人臉捕獲及口罩檢測系統(tǒng)可以適用于人流量大的場所,實(shí)現(xiàn) 了人臉檢測與跟蹤以及人臉口罩識別的功能,并將識別結(jié)果進(jìn)行播報(bào),可以輔助疫情防控工作的開展。

除此之外,本系統(tǒng)的人臉檢測系統(tǒng)有著廣泛的應(yīng)用范圍。

智能家居領(lǐng)域,可以通過我們的系統(tǒng)實(shí)現(xiàn)人類闖入報(bào)警裝置,在攝像頭捕捉到的區(qū)域檢測到人臉后觸發(fā)報(bào)警;

在新冠疫情期間,我們的系統(tǒng)可以安裝在商圈、旅游景點(diǎn),實(shí)時(shí)檢測人流密度,為實(shí)時(shí)限流措施提供參考。

1.3 主要技術(shù)特點(diǎn)

對密集人群進(jìn)行口罩檢測,首先要在畫面中進(jìn)行人臉檢測。在非深度學(xué)習(xí)階段的目標(biāo)檢測算法都是針對特定目標(biāo)提出的,比如 CVPR 2001 的 Viola-Jones (VJ)[1]是針對人臉檢測問題,CVPR 2005 的 HOG+SVM[2]是針 對行人檢測問題,TPAMI 2010 的 DPM[3]雖然可以檢測各類目標(biāo),但要用于多目標(biāo)檢測,需要每個(gè)類別分別訓(xùn)練模板。而強(qiáng)大的深度學(xué)習(xí)只要一個(gè) CNN 就可以 搞定多類別檢測任務(wù)。雖然這些都是多類別方法,但它們也都可以用來解決單類別問題。

本作品是基于深度學(xué)習(xí)的人臉捕獲及口罩檢測系統(tǒng),通過片外的圖像傳感器采集圖像到片上緩沖區(qū),而后把圖像送到 FPGA 上的神經(jīng)網(wǎng)絡(luò)加速器進(jìn)行處理, 識別結(jié)果輸出到顯示器,在顯示器中框出人臉并顯示目標(biāo)是否佩戴口罩,我們還使用語音模塊對畫面中的總?cè)藬?shù)和未戴口罩人數(shù)作出播報(bào)。

1.4 關(guān)鍵性能指標(biāo)

本作品可以實(shí)時(shí)檢測識別人臉口罩佩戴情況,我們從幀率和精度兩個(gè)方面進(jìn)行了分析。識別精度可達(dá)到 95.2%,而系統(tǒng)延遲僅僅 40ms 左右,可達(dá)到 25fps 的幀率。

1.5 主要?jiǎng)?chuàng)新點(diǎn)

神經(jīng)網(wǎng)絡(luò)部分創(chuàng)新點(diǎn)

1、使用了一個(gè)輕量級 backbone,去除了 BN 層,在精度達(dá)到優(yōu)秀的前提下極大提升了速度;

2、去掉了 FPN 結(jié)構(gòu),僅降低微小的精度卻大大提升了速度(20%);

3、在網(wǎng)絡(luò)的 head 部分對邊框回歸和類別預(yù)測做了不對稱設(shè)計(jì),進(jìn)一步提升性能。

系統(tǒng)框架創(chuàng)新點(diǎn)

1、為了加快系統(tǒng)設(shè)計(jì),采用了 Xilinx 專用于卷積神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)處理單元(DPU)。在設(shè)計(jì)系統(tǒng)過程中,可根據(jù)系統(tǒng)的具體情況配置 DPU 的參數(shù),將該 IP 集成到所選器件 PL 中,通過 PS 端軟件控制,實(shí)現(xiàn)多種卷積神經(jīng)網(wǎng)絡(luò)的加速。

2、利用 PYNQ 框架,可以在開發(fā)板上動態(tài)地加載比特流實(shí)現(xiàn)系統(tǒng)所需硬件電路,靈活方便。

3、利用 Vitis AI 編譯模型,將浮點(diǎn)模型轉(zhuǎn)換為定點(diǎn)模型,降低了計(jì)算復(fù)雜度,并且需要的內(nèi)存帶寬更少,提高了模型速度。

第二部分 系統(tǒng)組成及功能說明

2.1 整體介紹

68d57e76-53cc-11ec-b2e9-dac502259ad0.png

基于深度學(xué)習(xí)的人臉檢測系統(tǒng)由 PS 端、PL 端與外設(shè)及其接口組成。其中, 外設(shè)包括、攝像頭(通過 USB3.0 連接)、語音模塊(通過 UART 連接)和 VGA 顯示(通過 Mini DP 轉(zhuǎn) VGA 連接),開發(fā)板內(nèi)部還提供了 2GB 的 LPDDR4;PS 端包括 openCV 采集處理模塊、后處理模塊、語音控制模塊及顯示控制模塊;PL 端包括特征提取模塊和邊框回歸及分類模塊。

在 PS 端的模塊中,openCV 采集處理模塊的主要功能是控制攝像頭采集圖像,并對 LPDDR4 中的圖像進(jìn)行預(yù)處理;后處理模塊的主要功能是使用非極大值抑制(Non-Maximum Suppression, NMS)算法對候選區(qū)域進(jìn)行篩選,得到合適的區(qū)域信息并統(tǒng)計(jì)畫面中檢測到的人臉總數(shù);

語音控制和顯示控制驅(qū)動語音模塊和攝像頭構(gòu)成結(jié)果展示部分,語音控制模塊根據(jù)后處理模塊的結(jié)果播報(bào)當(dāng)前畫面中的人臉數(shù)目,而顯示控制模塊根據(jù) VGA 時(shí)序顯示拍攝畫面并框出人臉位置。PL 端中的特征提取模塊對預(yù)處理后的圖像進(jìn)行計(jì)算,得到大小不同的區(qū)域,邊框回歸及分類模塊處理這些區(qū)域,給出邊框信息與分類結(jié)果。

本系統(tǒng)的開發(fā)平臺為 Ultra96-V2 開發(fā)板,是基于 FPGA 的 Xilinx Zynq UltraScale +MPSoC 開發(fā)板,并基于 Linaro 96Boards Consumer Edition(CE)規(guī)范構(gòu)建。

Ultra96-V2 開發(fā)板系統(tǒng)框圖如下圖所示:

693d6c8e-53cc-11ec-b2e9-dac502259ad0.png

2.2 各模塊介紹

OpenCV 采集處理

本系統(tǒng)采用的是超微 1601U 攝像頭上圖所示,輸出圖像大小為 1280×720, 最高幀率可達(dá) 30fps。該攝像頭通過 USB3.0 接口與開發(fā)板連接,輸出圖像的數(shù)據(jù)格式支持 MJPEG 和 YUV 格式。它還支持自動曝光控制 AEC 和自動白平衡 AEB,可以調(diào)節(jié)亮度、對比度、色飽和度、色調(diào)等基礎(chǔ)參數(shù)。

通過系統(tǒng) PS 端的 OpenCV 來完成攝像頭相關(guān)參數(shù)的配置以及圖像幀的獲取, 之后對獲取的圖像進(jìn)行resize等預(yù)處理再送到PL部分的深度學(xué)習(xí)處理單元(DPU)進(jìn)行處理。

后處理

對于一幀圖像,該模塊接收到來自神經(jīng)網(wǎng)絡(luò)檢測模塊的 3780 個(gè)候選框信息 (包括邊框坐標(biāo)、識別標(biāo)簽、置信度)。后處理模塊首先對這些候選框進(jìn)行篩選, 留下置信度大于 0.6 的候選框。這一步可以減少無效候選框的處理時(shí)間。接著, 我們使用非極大值抑制算法對通過篩選的候選框進(jìn)行處理,去除重復(fù)的候選框, 得到最優(yōu)結(jié)果。最后將結(jié)果輸出給結(jié)果展示部分。

非極大值抑制,顧名思義就是抑制不是極大值的元素,可以理解為局部最大 搜索。這個(gè)局部代表的是一個(gè)鄰域,鄰域有兩個(gè)參數(shù)可變,一是鄰域的維數(shù),二是鄰域的大小。例如在行人檢測中,滑動窗口經(jīng)提取特征,經(jīng)分類器分類識別后, 每個(gè)窗口都會得到一個(gè)分?jǐn)?shù)。但是滑動窗口會導(dǎo)致很多窗口與其他窗口存在包含或者大部分交叉的情況。這時(shí)就需要用到 NMS 來選取那些鄰域里分?jǐn)?shù)最高(是行人的概率最大),并且抑制那些分?jǐn)?shù)低的窗口。

結(jié)果展示部分——語音控制

698a4158-53cc-11ec-b2e9-dac502259ad0.png

本系統(tǒng)中語音模塊的功能是在系統(tǒng)檢測完畢且后處理模塊統(tǒng)計(jì)畫面人數(shù)后, 將檢測結(jié)果通過語音的方式播報(bào)給外界。語音模塊 JQ8900-16P 選用了 SoC 方案, 集成了一個(gè) 16 位的 MCU,能夠靈活更換 SPI-flash 內(nèi)的語音內(nèi)容,有一線串口控制模式和 RX232 串口控制模式可選。

由于開發(fā)板上有多個(gè) USB 接口,我們采用 USB 轉(zhuǎn)串口的方式來控制語音模塊。具體控制方式為把檢測到的人數(shù)轉(zhuǎn)化為語音模塊的控制指令,通過串口發(fā)送到該模塊,語音模塊對指令進(jìn)行解碼之后播報(bào)存放在該模塊內(nèi)的相應(yīng)音頻。

結(jié)果展示部分——顯示控制

經(jīng)過神經(jīng)網(wǎng)絡(luò)處理之后的圖像由開發(fā)板上的 Mini DP 接口外接 Mini DP 轉(zhuǎn) VGA 轉(zhuǎn)接頭,連接到 VGA 顯示器進(jìn)行顯示。

識別模塊

本系統(tǒng)中卷積神經(jīng)網(wǎng)絡(luò)模塊的功能是對攝像頭采集圖像中的人臉進(jìn)行檢測并判斷目標(biāo)人臉上是否佩戴口罩,是系統(tǒng)的核心模塊。本小節(jié)將從數(shù)據(jù)集的制作、 特征提取模塊、軟件模型設(shè)計(jì)和硬件模型設(shè)計(jì)等四個(gè)方面介紹該模塊。

(1)數(shù)據(jù)集的制作

數(shù)據(jù)集主要來自于 WIDER Face 和 MAFA 數(shù)據(jù)集,加入了上百張戴口罩的 圖片(來源于網(wǎng)絡(luò))。具體地,我們從 WIDER Face 中篩選出 7000 張,從 MAFA 中篩選出 2000 張,自己根據(jù)已有的戴口罩的數(shù)據(jù)集生成了 2000 張左右,最終分為訓(xùn)練集 13000 張,測試集 300 張。值得一提的是,在我們自己生成的數(shù)據(jù)集圖片中,有許多是將有口罩的圖片與無口罩的圖片的組合,如圖 6 最右所示,因?yàn)樵诮?jīng)典數(shù)據(jù)集中很難找到這樣的情況。

2)神經(jīng)網(wǎng)絡(luò)模型的搭建和訓(xùn)練

本系統(tǒng)采用的目標(biāo)檢測算法為 anchor-base 的 one-stage 算法,整個(gè)網(wǎng)絡(luò)參考 了 RetinaNet[4]進(jìn)行設(shè)計(jì),可分為 backbone、neck、head 三大部分。其中,backbone 參考 BlazeFace[5]的設(shè)計(jì)去掉了 BN 層,這樣能在不影響準(zhǔn)確率的前提下提高速度。

在 RetinaNet 的 neck 部分中,F(xiàn)PN[6]有很好的特征提取功能,引入 FPN 能解決較為復(fù)雜的問題。但由于 FPN 需要額外的卷積計(jì)算,它也在一定程度上降低了速度。由于本次應(yīng)用只有兩個(gè)類別,有口罩和無口罩,識別困難度比較低,我們參考了 SSD[7]的結(jié)構(gòu),去掉 FPN 部分,僅用一個(gè)卷積層調(diào)整通道。對于 head 部分, 由于只有兩個(gè)類別,我們減少了 class 分支的卷積層,不再與 boxes 分支對稱。減少卷積層并沒有引起精度下降,但進(jìn)一步提升了速度。

我們 anchor 設(shè)置如下:

69fe1722-53cc-11ec-b2e9-dac502259ad0.png

總共有(24×40+12×20+6×10)×3=3780 個(gè) anchor,最小尺寸為 20,最大尺 寸為 127。

整體網(wǎng)絡(luò)框架如下所示:

6a24ed34-53cc-11ec-b2e9-dac502259ad0.png

整體網(wǎng)絡(luò)可分為兩部分——特征提取模塊與邊框回歸及分類模塊。

對于特征提取模塊的處理如圖 6 所示。令輸入圖像為 P0,其尺寸為 192×320;P1 由 P0 經(jīng)過一個(gè)卷積層和兩個(gè) blaze_block 得到,P1 經(jīng)過三個(gè) blaze_block 得到 P2 ;P3 由 P2 經(jīng) 過 三 個(gè) double_blaze_block 得來, P4 由 P3 經(jīng)過三個(gè) double_blaze_block 得來,P5 由 P4 經(jīng)過三個(gè) double_blaze_block 得來。P3、P4 和 P5 是本模塊的輸出,即識別模塊的輸入。

其中 blaze_block 由 DepthwiseConv2D + Conv2D + MaxPool2D + Add 組成,double_blaze_block 由 DepthwiseConv2D + Conv2D + DepthwiseConv2D + Conv2D + MaxPool2D + Conv2D + Add 組成。各層 參數(shù)詳見本文附錄中軟件模型的源代碼。

邊框回歸及分類模塊對 P3、P4、P5 進(jìn)行分析。RetinaNet 類別分支和邊框分 支分別采用了四個(gè)卷積層,本設(shè)計(jì)采用了 RetinaNet 的 head 設(shè)計(jì)思想,但是進(jìn)行 了改進(jìn):我們減少了卷積層的數(shù)量,邊框分支采用三個(gè)卷積層,類別分支采用兩個(gè)卷積層。因?yàn)橹挥袃蓚€(gè)類別,所以我們的類別分支和邊框分支采用了不對稱設(shè)計(jì),將類別分支的卷積層進(jìn)一步減少。減少類別分支的卷積層對準(zhǔn)確率幾乎沒有影響,但提升了速度。

(3)硬件部分

該部分利用支持 PYNQ 框架的開發(fā)板鏡像。首先通過在開發(fā)板上加載帶 Xilinx 的 DPU IP 的比特流文件,把 DPU 燒寫到開發(fā)板的 PL 端;再通過安裝在開發(fā)板鏡像上的 DPU 驅(qū)動,調(diào)用相應(yīng)的 API 把經(jīng)過 Vitis AI 編譯過的模型部署到 DPU 中;最后啟動 DPU 讀取預(yù)處理之后的圖像進(jìn)行檢測和分類,DPU 運(yùn)算完之后取出運(yùn)算結(jié)果,對運(yùn)算結(jié)果進(jìn)行解析之后得到人臉框的坐標(biāo)以及是否佩戴口罩的分類結(jié)果。

第三部分 完成情況及性能參數(shù)

3.1 完成情況

本系統(tǒng)目前可以實(shí)現(xiàn):

實(shí)時(shí)檢測并跟蹤人臉位置,人臉位置被框出;

人臉檢測框上方給出目標(biāo)是否戴口罩 mask/nomask 以及置信度;

定時(shí)對當(dāng)前人數(shù)與未佩戴口罩人數(shù)進(jìn)行語音播報(bào)。

3.2 人臉檢測性能指標(biāo)

本系統(tǒng)基于人臉捕捉及口罩識別的應(yīng)用對 RetinaNet 進(jìn)行優(yōu)化,并利用硬件加速,大大提升了處理速度。目前該系統(tǒng)可對 192×320 大小的三通道彩色視頻進(jìn)行實(shí)時(shí)處理,幀率可達(dá) 25fps,精度可達(dá) 95.2%。

第四部分 總結(jié)

可擴(kuò)展之處

目前系統(tǒng)圖像采集時(shí)間占總體時(shí)間的比例比較大,后期可探索更多軟硬件優(yōu)化的方法對圖像采集部分進(jìn)行優(yōu)化,提升系統(tǒng)幀率。除此之外,目前我們的應(yīng)用是進(jìn)行口罩(人臉)的檢測,未來可在此基礎(chǔ)上進(jìn)行拓展加入識別模型,識別模型可以精確識別出是哪一個(gè)人,這樣可將應(yīng)用范圍進(jìn)一步拓展,比如說門禁的人臉識別、簽到、智能監(jiān)控等等。

作品來源:Xilinx開源社區(qū),已授權(quán),作者:韋社年、朱庭威、張華蕾。

編輯:jq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • FPGA
    +關(guān)注

    關(guān)注

    1645

    文章

    22050

    瀏覽量

    618589
  • 人臉檢測
    +關(guān)注

    關(guān)注

    0

    文章

    86

    瀏覽量

    16852
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5561

    瀏覽量

    122799

原文標(biāo)題:基于 FPGA 及深度學(xué)習(xí)的人臉檢測系統(tǒng)設(shè)計(jì)

文章出處:【微信號:HXSLH1010101010,微信公眾號:FPGA技術(shù)江湖】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    基于LockAI視覺識別模塊:C++人臉識別

    是實(shí)現(xiàn)人臉識別的常用方法: 深度學(xué)習(xí)方法:現(xiàn)代的人臉識別系統(tǒng)大多采用深度
    發(fā)表于 07-01 12:01

    使用OpenVINO?模型的OpenCV進(jìn)行人臉檢測檢測到多張人臉時(shí),伺服電機(jī)和步入器電機(jī)都發(fā)生移動是為什么?

    使用OpenVINO?模型的 OpenCV* 進(jìn)行人臉檢測。 使用 cv2.矩形 函數(shù),能夠獲取檢測到的面部的坐標(biāo)。 檢測到多張人臉時(shí),多
    發(fā)表于 03-07 06:35

    AI智能質(zhì)檢系統(tǒng) 工業(yè)AI視覺檢測

    。AI質(zhì)檢系統(tǒng)通過結(jié)合機(jī)器學(xué)習(xí)、深度學(xué)習(xí)、計(jì)算機(jī)視覺等先進(jìn)技術(shù),能夠比較準(zhǔn)確的、地完成產(chǎn)品質(zhì)量檢測
    的頭像 發(fā)表于 02-26 17:36 ?551次閱讀
    AI智能質(zhì)檢<b class='flag-5'>系統(tǒng)</b> 工業(yè)AI視覺<b class='flag-5'>檢測</b>

    人臉識別技術(shù)的優(yōu)勢與劣勢

    人臉識別技術(shù)的優(yōu)勢 1. 高度準(zhǔn)確性 人臉識別技術(shù)在理想條件下可以達(dá)到非常高的準(zhǔn)確性。隨著深度學(xué)習(xí)
    的頭像 發(fā)表于 02-06 18:23 ?1710次閱讀

    新唐科技基于NuMaker-M55M1平臺的人臉識別系統(tǒng)

    人臉識別技術(shù)已成為現(xiàn)代科技的重要基石,廣泛應(yīng)用于安全監(jiān)控、門禁系統(tǒng)以及用戶身份認(rèn)證等領(lǐng)域。新唐科技基于 NuMaker-M55M1 平臺的人臉識別
    的頭像 發(fā)表于 01-20 10:31 ?742次閱讀

    如何選擇合適的人臉門禁系統(tǒng)?人臉打卡門禁哪款好?

    在當(dāng)今這個(gè)智能化、高效化的時(shí)代,辦公場所的安全與管理效率成為了企業(yè)不可忽視的重要環(huán)節(jié)。隨著人臉識別技術(shù)的日益成熟,人臉門禁系統(tǒng)因其獨(dú)特的優(yōu)勢,逐漸成為眾多辦公寫字樓出入口管理的首選方案
    的頭像 發(fā)表于 12-17 15:19 ?737次閱讀
    如何選擇合適<b class='flag-5'>的人臉</b>門禁<b class='flag-5'>系統(tǒng)</b>?<b class='flag-5'>人臉</b>打卡門禁哪款好?

    如何用OpenCV的相機(jī)捕捉視頻進(jìn)行人臉檢測--基于米爾NXP i.MX93開發(fā)板

    的是Haar特征人臉檢測,此外OpenCV中還集成了深度學(xué)習(xí)方法來實(shí)現(xiàn)人臉檢測。 【參考資料】
    發(fā)表于 11-15 17:58

    GPU深度學(xué)習(xí)應(yīng)用案例

    能力,可以顯著提高圖像識別模型的訓(xùn)練速度和準(zhǔn)確性。例如,在人臉識別、自動駕駛等領(lǐng)域,GPU被廣泛應(yīng)用于加速深度學(xué)習(xí)模型的訓(xùn)練和推理過程。 二、自然語言處理 自然語言處理(NLP)是深度
    的頭像 發(fā)表于 10-27 11:13 ?1382次閱讀

    激光雷達(dá)技術(shù)的基于深度學(xué)習(xí)的進(jìn)步

    信息。這使得激光雷達(dá)在自動駕駛、無人機(jī)、機(jī)器人等領(lǐng)域具有廣泛的應(yīng)用前景。 二、深度學(xué)習(xí)技術(shù)的發(fā)展 深度學(xué)習(xí)是機(jī)器
    的頭像 發(fā)表于 10-27 10:57 ?1071次閱讀

    FPGA加速深度學(xué)習(xí)模型的案例

    FPGA(現(xiàn)場可編程門陣列)加速深度學(xué)習(xí)模型是當(dāng)前硬件加速領(lǐng)域的一個(gè)熱門研究方向。以下是一些FPGA加速深度
    的頭像 發(fā)表于 10-25 09:22 ?1238次閱讀

    深度偽造人臉檢測項(xiàng)目

    各位 AI 愛好者們,準(zhǔn)備好通過各種 AI 技術(shù)來應(yīng)對一個(gè)迫切需要被解決的全球問題了嗎?MathWorks 誠邀您參加 2025 IEEE Signal Processing Cup 挑戰(zhàn)賽:“野外深度偽造人臉
    的頭像 發(fā)表于 10-17 10:46 ?930次閱讀
    <b class='flag-5'>深度</b>偽造<b class='flag-5'>人臉</b><b class='flag-5'>檢測</b>項(xiàng)目

    FPGA深度學(xué)習(xí)能走多遠(yuǎn)?

    ,共同進(jìn)步。 歡迎加入FPGA技術(shù)微信交流群14群! 交流問題(一) Q:FPGA深度學(xué)習(xí)能走多遠(yuǎn)?現(xiàn)在用
    發(fā)表于 09-27 20:53

    深度識別人臉識別有什么重要作用嗎

    深度學(xué)習(xí)人臉識別技術(shù)是人工智能領(lǐng)域的一個(gè)重要分支,它利用深度學(xué)習(xí)算法來識別和驗(yàn)證個(gè)人身份。這項(xiàng)
    的頭像 發(fā)表于 09-10 14:55 ?1142次閱讀

    深度識別人臉識別在任務(wù)中為什么有很強(qiáng)大的建模能力

    深度學(xué)習(xí)人臉識別技術(shù)是人工智能領(lǐng)域中的一個(gè)重要分支,它利用深度學(xué)習(xí)算法來識別和驗(yàn)證
    的頭像 發(fā)表于 09-10 14:53 ?842次閱讀

    基于 FPGA 的會議系統(tǒng)設(shè)計(jì)

    FPGA 處理器模塊進(jìn)行處理,識別其是否為檢測目標(biāo),若為 檢測目標(biāo)則顯示檢測的人員信息;若沒有檢測
    發(fā)表于 08-01 18:40