一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

騰訊優(yōu)圖入選AAAI 2021的論文節(jié)選 涵蓋動作識別和人臉安全等領(lǐng)域

MEMS ? 來源:MEMS ? 作者:MEMS ? 2020-12-23 15:06 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

近日,國際人工智能頂級會議AAAI 2021公布了論文錄取結(jié)果。AAAI是人工智能領(lǐng)域最悠久、涵蓋內(nèi)容最為廣泛的國際頂級學術(shù)會議之一。AAAI 2021一共收到9034篇論文提交,其中有效審稿的數(shù)量為7911篇,最終錄取數(shù)量為1692篇,錄取率為21.4%。

AAAI (Association for the Advance of Artificial Intelligence), 即美國人工智能協(xié)會,是人工智能領(lǐng)域的主要學術(shù)組織之一,其主辦的年會也是人工智能領(lǐng)域的國際頂級會議。在中國計算機學會的國際學術(shù)會議排名以及清華大學新發(fā)布的計算機科學推薦學術(shù)會議和期刊列表中,AAAI 均被列為人工智能領(lǐng)域的 A 類頂級會議。

本次AAAI 騰訊優(yōu)圖實驗室共入選了11篇論文,涉及動作識別、人群密度估計、人臉安全等領(lǐng)域,展現(xiàn)了騰訊在計算機視覺領(lǐng)域的技術(shù)實力。

以下為部分騰訊優(yōu)圖入選AAAI 2021的論文:

01

學習用于動作識別的全面運動特征表達

Learning Comprehensive Motion Representation for Action Recognition

運動特征在動作識別中起到非常重要的作用?;?D CNN的方法雖然高效,但是由于對每一幀都采用相同的二維卷積核,會產(chǎn)生大量的冗余和重復特征。近期有一些工作通過建立幀間的聯(lián)系獲取運動信息,但是依然存在感受野有限的問題。此外,特征的增強依舊只在通道或者空間維度單獨進行。

為了解決這些問題,我們首先提出了一個通道特征增強模塊(CME)自適應地增強與運動相關(guān)的通道。增強系數(shù)通過分析整段視頻的信息獲得。根據(jù)相鄰特征圖之間的點對點相似性,我們進一步提出了一種空間運動增強(SME)模塊,以指導模型集中于包含運動關(guān)鍵目標的區(qū)域,其背后的直覺是背景區(qū)域的變化通常比視頻的運動區(qū)域慢。通過將CME和SME集成到現(xiàn)成的2D網(wǎng)絡中,我們最終獲得了用于動作識別的全面運動特征學習方法。

我們的方法在三個公共數(shù)據(jù)集上取得了有競爭力的表現(xiàn):Something-Something V1&V2和Kinetics-400。特別是在時序推理數(shù)據(jù)集Something-Something V1和V2上,當使用16幀作為輸入時,我們的方法比之前最好的方法高2.3%和1.9%。

02

選擇還是融合?基于自適應尺度選擇的人群密度估計ToChooseortoFuse?ScaleSelectionforCrowdCounting

本文提出了一種高效地充分利用網(wǎng)絡內(nèi)部多尺度特征表示的方法,能夠有效解決人群密度估計中的大范圍尺度變化問題。具體的,考慮到每層特征都有各自最擅長預測的人群尺度范圍,本文提出了一種圖像塊級別的特征層選擇策略來實現(xiàn)盡可能小的計數(shù)誤差。顯然,在沒有人群尺度標注信息的情況下,任何人工指定人群尺度與特征層對應關(guān)系的方法都是次優(yōu)的并會帶來額外誤差。

相反,本文提出的尺度自適應選擇網(wǎng)絡SASNet可以自動地學習這種對應關(guān)系,并通過軟選擇的方式來緩解離散的特征層與連續(xù)的人群尺度變化之間的矛盾。由于SASNet為同一圖像塊內(nèi)相似尺度的人群選擇同一特征層,直接使用傳統(tǒng)的像素級損失函數(shù)會忽略圖像塊內(nèi)部不同樣本間各異的學習難度。

因此,本文還提出了一種金字塔區(qū)域感知損失(PRALoss),從圖像塊級別開始以一種自上而下的方式迭代地選擇最困難的樣本來優(yōu)化。鑒于PRA Loss能夠根據(jù)上層父圖像塊是過預測還是欠預測來選擇困難樣本,因此還能夠緩解業(yè)界普遍面臨的訓練目標最小化和計數(shù)誤差最小化之間不一致的問題。我們的方法在多達四個公開數(shù)據(jù)集上取得了優(yōu)異的性能。

03

解耦場景和運動的無監(jiān)督視頻表征學習

Enhancing Unsupervised Video Representation Learning by Decoupling the Scene and the Motion

相比于圖像表征學習,視頻表征學習中的一個重要因素是物體運動信息(Object Motion)。然而我們發(fā)現(xiàn), 在當前主流的視頻數(shù)據(jù)集中, 一些動作類別會和發(fā)生的場景強相關(guān), 導致模型往往只關(guān)注了場景信息。比如,模型可能僅僅因為發(fā)生的場景是足球場,就將拉拉隊員在足球場上跳舞的視頻判斷成了踢足球。

這違背了視頻表征學習最初的目的,即學習物體運動信息,并且不容忽視的是,不同的數(shù)據(jù)集可能會帶來不同的場景偏見(Scene Bias)。為了解決這個問題, 我們提出了用兩個簡單的操作來解耦合場景和運動(Decoupling the Scene and the Motion, DSM),以此來到達讓模型更加關(guān)注運動信息的目的。

具體來說,我們?yōu)槊慷我曨l都會構(gòu)造一個正樣本和一個負樣本,相比于原始視頻, 正樣本的運動信息沒有發(fā)生變化,但場景被破壞掉了,而負樣本的運動信息發(fā)生了改變,但場景信息基本被保留了下來。構(gòu)造正負樣本的操作分別叫做Spatial Local Disturbance和Temporal Local Disturbance。

我們的優(yōu)化目標是在隱空間在拉近正樣本和原始視頻的同時,推遠負樣本。用這種方式,場景帶來的負面影響被削弱掉了,而模型對時序也變得更加敏感。我們在兩個任務上,用不同的網(wǎng)絡結(jié)構(gòu)、不同的預訓練數(shù)據(jù)集進行了實驗驗證,發(fā)現(xiàn)我們方法在動作識別任務上,在UCF101以及HMDB51數(shù)據(jù)集上分別超越當前學界領(lǐng)先水平8.1%以及8.8%。

04

面向真實圖像超分辨率的頻率一致性自適應方法

FrequencyConsistentAdaptationforRealWorldSuperResolution

最近的基于深度學習的超分辨率(SR)方法在具有已知降質(zhì)的圖像上取得了卓越的性能。但是,這些方法在現(xiàn)實世界中總是會失敗,因為理想退化(例如,雙三次降采樣)之后的低分辨率(LR)圖像會偏離真實源域。在頻率密度上可以清楚地觀察到LR圖像和真實世界圖像之間的域間隙,這啟發(fā)我們顯式地縮小由于不正確的降質(zhì)而導致的間隙。

從這個角度出發(fā),我們設(shè)計了一種新穎的頻率一致性自適應方法(FCA),能夠確保將現(xiàn)有SR方法應用于真實場景時保持頻域一致性。我們從無監(jiān)督的圖像中估計退化內(nèi)核,并生成相應的LR圖像。為了給核估計提供有用的梯度信息,我們提出了通過區(qū)分不同尺度圖像的頻率密度的頻率密度比較器(FDC)。

基于域一致的LR-HR對,我們訓練了易于實現(xiàn)的卷積神經(jīng)網(wǎng)絡(CNN)SR模型。大量實驗表明,所提出的FCA在真實環(huán)境下提高了SR模型的性能,以高保真度和合理的感知度獲得了最先進的結(jié)果,從而為實際SR應用提供了一種新穎有效的框架。

05

混合域活體檢測中的通用表征學習

Generalizable Representation Learning for Mixture Domain Face Anti-Spoofing

基于域泛化的活體檢測技術(shù)對未知場景有更好的泛化性,受到了工業(yè)界和學術(shù)界的廣泛關(guān)注。已有的域泛化方法需要域標簽的支持,然而在實際場景中,所收集到的往往是域信息不可知的混合數(shù)據(jù)。在這種場景下,大多數(shù)已有的方法是不可用的。而且域劃分的方式可以有多種,因此單一固定的劃分方法可能只是次優(yōu)解。

為解決實際混合數(shù)據(jù)問題,我們提出了一種基于迭代式無監(jiān)督子域劃分的元學習方法。該方法無需域標簽,通過高鑒別性的域特征實現(xiàn)子域劃分,并通過元學習的方式進行模型的優(yōu)化。具體來說,我們基于實例正則化定義了域信息表示,并設(shè)計了域表示學習模塊(DRLM)來提取高鑒別性的域特征用以精準的域聚類。

此外,為了緩解離群點對聚類的阻礙,我們采用最大均值差異(MMD)來校正樣本特征分布與先驗分布的差異,以增強聚類的可靠性。實驗結(jié)果表明我們的方法(D2AM)優(yōu)于傳統(tǒng)的域泛化方法,包括使用域標簽的方法,為實際場景下活體技術(shù)的應用提供了有效框架。

06

基于局部關(guān)聯(lián)學習的人臉偽造檢測

Local Relation Learning for Face Forgery Detection

隨著人臉編輯技術(shù)的快速發(fā)展,人臉內(nèi)容取證引起了廣泛的關(guān)注。大多數(shù)現(xiàn)有方法往往利用二值類別標簽或偽造區(qū)域等監(jiān)督信息來解決人臉偽造檢測任務。然而,由于沒有考慮到局部區(qū)域間的關(guān)聯(lián),這些全局監(jiān)督信息不足以學習到泛化性強的特征,往往容易過擬合。

為了解決這個問題,我們提出了一種通過局部關(guān)聯(lián)學習來進行人臉偽造檢測的新方法。具體而言,我們提出了一個多尺度局部相似性模塊(MPSM),該模塊通過衡量局部區(qū)域特征間的相似性來構(gòu)造一種泛化性強、魯棒性高的相似模式。

此外,我們還提出了一個RGB-頻域注意力模塊(RFAM)來融合RGB圖像和頻域信息,從而得到更全面的局部特征表示,進一步提高了相似模式的可靠性。大量的實驗表明我們所提出的方法在多個數(shù)據(jù)集上優(yōu)于現(xiàn)有的方法,同時詳細的可視化也充分證明了我們方法的魯棒性和可解釋性。

07

基于可泛化樣本選擇的行人重識別方法

OneforMore:SelectingGeneralizableSamplesforGeneralizableReIDModel

現(xiàn)有行人重新識別(ReID)模型的訓練目標是在當前批次樣本上模型的損失減少,而與其他批次樣本的性能無關(guān)。它將不可避免地導致模型過擬合到某些樣本(例如,不平衡類中的頭部數(shù)據(jù),簡單樣本或噪聲樣本)。

目前有基于采樣的方法通過設(shè)計特定準則來選擇特定樣本來解決該問題,這些方法對某些類型的數(shù)據(jù)(例如難樣本,尾部數(shù)據(jù))施加了更多的關(guān)注,這不適用于真實的ReID數(shù)據(jù)分布。

因此,本文將所選樣本的泛化能力作為損失函數(shù),并學習一個采樣器來自動選擇可泛化樣本,而不是簡單地推測哪些樣本更有意義。更重要的是,我們提出的基于可泛化能力的采樣器可以無縫集成到ReID訓練框架中,該框架能夠以端到端的方式同時訓練ReID模型和采樣器。實驗結(jié)果表明,該方法可以有效地改善ReID模型的訓練,提高ReID模型的性能。

08

基于對比學習的小樣本植入模型

Learning a Few-shot Embedding Model by Contrastive Learning

小樣本學習是根據(jù)少量的先驗信息去對于目標目標類別進行分類。這些信息一般沉淀在一個深度模型中,用來對支持集和問詢集進行匹配。本文的目標是利用對比學習的方法學習一個小樣本植入模型,具體貢獻如下:

1 我們深入研究噪聲對比估計方法,并利用它來訓練小樣本植入模型;
2 我們提出一個名為infoPatch的植入模型方法,智能挖掘局部的聯(lián)系,保證穩(wěn)步提升小樣本分類的能力;
3 我們在文章中展示了infoPatch的有效性;
4 我們的模型的指標在三個常用數(shù)據(jù)集miniImageNet,tieredImageNet和ewshot-CIFAR100上都達到了頂尖水準。

09

基于Transformer結(jié)構(gòu)層內(nèi)-

層間聯(lián)合全局表示的圖像描述

Improving Image Captioning by Leveraging Intra- and Inter-layer Global Representation in Transformer Network

本論文由騰訊優(yōu)圖實驗室與廈門大學合作完成。

基于Transformer的結(jié)構(gòu)近來在圖像描述任務中取得了巨大的成功, 這些模型的范式都是將目標regions編碼成隱含特征實現(xiàn)描述的解碼。然而,我們發(fā)現(xiàn)這些隱含特征僅僅涵蓋了region級別的局部特征,忽略了考慮整張圖片的全局特征的建模,使得模型難以進一步拓展在圖像描述中的復雜多模態(tài)推理能力。

因此,這篇文章我們提出了一個新的模型GET,同時提取更為綜合的全局信息并將全局信息作為自適應引導信號生成更為高質(zhì)量的圖像描述。具體而言,在該模型中,我們首先設(shè)計了一個全局加強的編碼器和全局自適應的解碼器,其中前者利用Transformer層級結(jié)構(gòu)特點,提取層內(nèi)-層間聯(lián)合全局特征,后者則利用全局自適應控制器,控制全局特征融入解碼器來指導圖像描述的生成。本文在MS COCO數(shù)據(jù)集上的實驗證明了我們相對于當前最先進模型的優(yōu)勢。

10

基于雙層級特征協(xié)同Transformer的圖像描述生成

Dual-level Collaborative Transformer for Image Captioning

本論文由騰訊優(yōu)圖實驗室與廈門大學合作完成。

由目標檢測網(wǎng)絡提取的區(qū)域特征在圖像描述生成的發(fā)展中起著重要的作用。然而,這種特征中缺乏上下文信息和細粒度細節(jié),而這正是網(wǎng)格特征的優(yōu)點。本文提出了一種新的雙層級特征協(xié)同Transformer,以實現(xiàn)兩者的優(yōu)勢互補。

具體地說,在DLCT中,我們首先使用DWSA來挖掘它們的內(nèi)在特性,并在其中引入綜合關(guān)系注意力機制來嵌入幾何信息。此外,我們還提出了LCCA模塊,目的是解決這兩個特征直接融合所產(chǎn)生的語義噪聲問題,通過構(gòu)造幾何對齊圖來精確對齊和增強區(qū)域和網(wǎng)格特征。

為了驗證我們的模型,我們在基準數(shù)據(jù)集MS-COCO上進行了大量的實驗,并在本地和在線測試集上實現(xiàn)了SOTA性能,在Karpathy 測試集上達到133.8%的CIDEr得分,在官方測試集上達到135.4%的CIDEr得分。

11

圖博弈嵌入

Graph Game Embedding

本論文由騰訊優(yōu)圖實驗室與南京理工大學合作完成。

圖嵌入旨在將節(jié)點/邊編碼為低維連續(xù)特征,已成為圖分析的重要工具并被應用于圖/節(jié)點分類,鏈接預測等任務。在本文中,我們提出了一種新穎的名為圖博弈嵌入的圖學習框架,以學習具有判別性的節(jié)點表示并對圖結(jié)構(gòu)進行編碼。

受博弈學習理論的啟發(fā),節(jié)點嵌入被轉(zhuǎn)換為博弈過程中玩家策略的選擇/搜索過程,其中每個節(jié)點對應一個玩家,而每條邊對應于兩個玩家之間的交互。然后,定義了一個在理論上滿足納什均衡的收益函數(shù)以衡量圖演化過程中參與玩家(節(jié)點)的收益/損失。

更進一步地,引入了一種合作與競爭機制以提高該框架的判別學習能力。在上述圖博弈嵌入框架下,考慮節(jié)點的不同交互方式,我們提出了兩種具體模型,即對交互圖博弈嵌入模型和群組圖博弈嵌入模型。

與現(xiàn)有的圖嵌入方法相比,本文所提出的框架具有兩個優(yōu)點:(1)所設(shè)計的收益函數(shù)保證了圖網(wǎng)絡的穩(wěn)定演化,滿足納什均衡且具有收斂性的理論保證;(2)所引入的協(xié)作和競爭機制可指導每個節(jié)點學習到區(qū)別于其他節(jié)點的優(yōu)化策略,從而賦予圖博弈嵌入框架以學習具有判別性特征的能力。我們在三個關(guān)于引文網(wǎng)絡的公共數(shù)據(jù)集上對所提出的方法進行了評測,實驗結(jié)果驗證了其有效性。

責任編輯:xj

原文標題:騰訊優(yōu)圖11篇論文入選AAAI,涵蓋動作識別和人臉安全等領(lǐng)域

文章出處:【微信公眾號:MEMS】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    88

    文章

    35164

    瀏覽量

    279971
  • 人臉識別
    +關(guān)注

    關(guān)注

    77

    文章

    4089

    瀏覽量

    84294
  • 人體動作識別
    +關(guān)注

    關(guān)注

    0

    文章

    5

    瀏覽量

    2362

原文標題:騰訊優(yōu)圖11篇論文入選AAAI,涵蓋動作識別和人臉安全等領(lǐng)域

文章出處:【微信號:MEMSensor,微信公眾號:MEMS】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    格靈深瞳六篇論文入選ICCV 2025

    近日,國際頂級會議ICCV 2025(計算機視覺國際大會)公布論文錄用結(jié)果,格靈深瞳團隊共有6篇論文入選。
    的頭像 發(fā)表于 07-07 18:23 ?460次閱讀

    理想汽車八篇論文入選ICCV 2025

    近日,ICCV 2025(國際計算機視覺大會)公布論文錄用結(jié)果,理想汽車共有8篇論文入選,其中5篇來自自動駕駛團隊,3篇來自基座模型團隊。ICCV作為計算機視覺領(lǐng)域的頂級學術(shù)會議,每兩
    的頭像 發(fā)表于 07-03 13:58 ?285次閱讀

    基于LockAI視覺識別模塊:C++人臉識別

    與已知人臉數(shù)據(jù)庫中的數(shù)據(jù)比對來確認個人身份。被廣泛應用于安全監(jiān)控、門禁系統(tǒng)、移動設(shè)備解鎖及社交媒體等領(lǐng)域。 1.2 人臉識別常用方法
    發(fā)表于 07-01 12:01

    后摩智能四篇論文入選三大國際頂會

    2025 年上半年,繼年初被 AAAI、ICLR、DAC 三大國際頂會收錄 5 篇論文后,后摩智能近期又有 4 篇論文入選CVPR、ICML、ACL三大國際頂會,面向大模型的編碼、量化
    的頭像 發(fā)表于 05-29 15:37 ?373次閱讀

    筑牢人臉信息安全防線|安全芯片如何賦能《人臉識別技術(shù)應用安全管理辦法》落地

    一、政策背景人臉識別安全挑戰(zhàn)催生技術(shù)變革近日《人臉識別技術(shù)應用安全管理辦法》(以下簡稱《辦法》)正式公布,并自2025年6月1日起施行。該《
    的頭像 發(fā)表于 04-28 09:33 ?476次閱讀
    筑牢<b class='flag-5'>人臉</b>信息<b class='flag-5'>安全</b>防線|<b class='flag-5'>安全</b>芯片如何賦能《<b class='flag-5'>人臉</b><b class='flag-5'>識別</b>技術(shù)應用<b class='flag-5'>安全</b>管理辦法》落地

    后摩智能5篇論文入選國際頂會

    2025年伊始,后摩智能在三大國際頂會(AAAI、ICLR、DAC)中斬獲佳績,共有5篇論文被收錄,覆蓋大語言模型(LLM)推理優(yōu)化、模型量化、硬件加速等前沿方向。
    的頭像 發(fā)表于 02-19 14:02 ?769次閱讀
    后摩智能5篇<b class='flag-5'>論文</b><b class='flag-5'>入選</b>國際頂會

    人臉識別技術(shù)在安全監(jiān)控中的應用

    在現(xiàn)代社會,安全監(jiān)控是維護公共安全和社會秩序的重要手段。隨著技術(shù)的進步,傳統(tǒng)的監(jiān)控手段已經(jīng)無法滿足日益增長的安全需求。人臉識別技術(shù)作為一種新
    的頭像 發(fā)表于 02-06 17:25 ?1041次閱讀

    人臉識別技術(shù)的應用場景

    領(lǐng)域,人臉識別技術(shù)被用來監(jiān)控和預防犯罪。通過在公共場所安裝攝像頭,結(jié)合人臉識別系統(tǒng),可以實時識別
    的頭像 發(fā)表于 02-06 17:20 ?1604次閱讀

    ShiMetaOS | 怎樣免費調(diào)用人臉識別模塊以及視頻結(jié)構(gòu)化分析軟件API

    ShiMetaOS內(nèi)置視美泰自研人臉識別模塊及視頻結(jié)構(gòu)化分析軟件API,可在設(shè)備端免費實現(xiàn)本地化智能安防服務:涵蓋精準人臉檢測跟蹤、高速人臉
    的頭像 發(fā)表于 02-05 17:09 ?617次閱讀
    ShiMetaOS  | 怎樣免費調(diào)用<b class='flag-5'>人臉</b><b class='flag-5'>識別</b>模塊以及視頻結(jié)構(gòu)化分析軟件API

    校園人臉識別閘機通道的應用

    隨著科技的飛速發(fā)展,人臉識別技術(shù)正逐步滲透到我們生活的各個領(lǐng)域,其中,教育領(lǐng)域的應用尤為引人注目。在校園內(nèi),人臉
    的頭像 發(fā)表于 01-15 15:02 ?490次閱讀
    校園<b class='flag-5'>人臉</b><b class='flag-5'>識別</b>閘機通道的應用

    騰訊申請注冊多枚“騰訊AI助手”商標

    近日,根據(jù)愛企查App的最新數(shù)據(jù)顯示,騰訊科技(深圳)有限公司在商標領(lǐng)域有了新動作,該公司已經(jīng)正式申請注冊了多枚“騰訊AI助手”商標。這一舉動無疑展示了
    的頭像 發(fā)表于 11-19 11:01 ?802次閱讀

    經(jīng)緯恒潤功能安全AI 智能體論文成功入選EMNLP 2024!

    近日,經(jīng)緯恒潤在智能體(AIAgent)領(lǐng)域再獲佳績,其論文《Aegis
    的頭像 發(fā)表于 10-18 08:00 ?707次閱讀
    經(jīng)緯恒潤功能<b class='flag-5'>安全</b>AI 智能體<b class='flag-5'>論文</b>成功<b class='flag-5'>入選</b>EMNLP 2024!

    深度識別人臉識別有什么重要作用嗎

    深度學習人臉識別技術(shù)是人工智能領(lǐng)域的一個重要分支,它利用深度學習算法來識別和驗證個人身份。這項技術(shù)在多個領(lǐng)域都有廣泛的應用,包括但不限于
    的頭像 發(fā)表于 09-10 14:55 ?1142次閱讀

    優(yōu)易通無線DTU騰訊云通信實例

    優(yōu)易通無線DTU騰訊云通信實例(基于MQTT)優(yōu)——產(chǎn)品優(yōu),服務優(yōu),價格優(yōu)易——安裝易,使用易,
    的頭像 發(fā)表于 08-30 11:45 ?689次閱讀
    <b class='flag-5'>優(yōu)</b>易通無線DTU<b class='flag-5'>騰訊</b>云通信實例

    帶阻濾波器在人臉識別中的應用

    人臉識別技術(shù)作為模式識別領(lǐng)域的重要課題,近年來在公共安全、門禁系統(tǒng)、數(shù)字娛樂等多個領(lǐng)域得到了廣泛
    的頭像 發(fā)表于 08-08 18:15 ?1258次閱讀