一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于深度學(xué)習(xí)的無信標(biāo)自動(dòng)追蹤工具

nlfO_thejiangme ? 來源:未知 ? 作者:李倩 ? 2018-09-06 09:06 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

對(duì)于動(dòng)物行為研究,特別是運(yùn)動(dòng)模式的分析很大程度上依賴于研究人員的人工觀察和分析。但研究人員近日開發(fā)的新工具有望能夠?yàn)檠芯咳藛T們提供省時(shí)省力的新方法來對(duì)動(dòng)物的行為進(jìn)行持續(xù)的自動(dòng)觀測。

來自哈佛大學(xué)的科學(xué)家與合作伙伴研發(fā)出了基于深度學(xué)習(xí)的無信標(biāo)自動(dòng)追蹤工具,可以在視頻中持續(xù)追蹤動(dòng)物及其身上特征點(diǎn)的運(yùn)動(dòng),并達(dá)到了人類的精度水平。近日研究發(fā)表在了自然神經(jīng)科學(xué)的雜志上。

在神經(jīng)科學(xué)中,定量的行為觀察對(duì)于很多方面都是至關(guān)重要的。雖然攝像機(jī)為人們提供了一種便捷的手段來對(duì)動(dòng)物進(jìn)行觀察,提取特定行為并進(jìn)行進(jìn)一步分析常常是耗時(shí)耗力的工作。為了定量的監(jiān)控,研究對(duì)象通常會(huì)被打上一定的信標(biāo)來實(shí)現(xiàn)自動(dòng)追蹤,但很多情況下信標(biāo)具有侵入性和缺乏靈活性等缺點(diǎn)。為了解決這些問題,研究人員們利用深度網(wǎng)絡(luò)從視頻中實(shí)現(xiàn)了動(dòng)物行為的無信標(biāo)追蹤,并達(dá)到了人類的精度水平。

通過構(gòu)建深度網(wǎng)絡(luò)和數(shù)據(jù)集,研究人員們成功訓(xùn)練出了一個(gè)可以從視頻中抽取身體特定部分位置的模型。研究人員門分別標(biāo)注了圖像中的ROI區(qū)域和每個(gè)區(qū)域中的關(guān)節(jié)作為輸入特征。神經(jīng)網(wǎng)絡(luò)使用預(yù)訓(xùn)練的ResNet-50最為主體抽取特征,最后通過訓(xùn)練解卷積網(wǎng)絡(luò)來對(duì)于身體位置的預(yù)測。

研究人員表示,這一方法甚至只需要標(biāo)注約200張對(duì)應(yīng)的圖像就可以達(dá)到很好的精度,并且可以將精度控制在幾個(gè)像素的范圍內(nèi)。

利用1080TiGPU,這一工具可以再682*540的圖像上實(shí)現(xiàn)30Hz的速度,并在分辨率更低的204*162像素上達(dá)到了85Hz的速度。

這種方法還可以廣泛用于多種動(dòng)物和場景下。研究人員利用四個(gè)實(shí)驗(yàn)探索了網(wǎng)絡(luò)功能的有效性。

首先在彩色圖像中對(duì)馬兒的身體關(guān)鍵點(diǎn)進(jìn)行了檢測和追蹤。研究顯示網(wǎng)絡(luò)對(duì)于不同顏色、不同視角和速度下的馬都有著較強(qiáng)的追蹤性能。

除此之外,研究人員還將這一方法應(yīng)用于老鼠的步態(tài)研究上,下圖顯示了老鼠在跑輪上運(yùn)動(dòng)的場景。模型被用于從側(cè)面和地面同時(shí)檢測和跟蹤運(yùn)動(dòng)。右圖顯示了模型對(duì)于電動(dòng)魚身體關(guān)鍵點(diǎn)的追蹤??梢钥吹綗o論是對(duì)不同場景視角還是不同的物種,都可以得到良好的效果。

除了動(dòng)物之外,這一網(wǎng)絡(luò)還可以用于追蹤人類行為及其三維位置。研究人員訓(xùn)練了三個(gè)視角下的追蹤網(wǎng)絡(luò),并將得到的數(shù)據(jù)通過投影矩陣重構(gòu)目標(biāo)對(duì)象的3D運(yùn)動(dòng)坐標(biāo),實(shí)現(xiàn)了三維目標(biāo)檢測與跟蹤。

值得一提的是,這一研究團(tuán)隊(duì)來自哈佛大學(xué)Rowland Institute, Adaptive motor control實(shí)驗(yàn)室,長期致力于深入理解神經(jīng)系統(tǒng)的自適應(yīng)運(yùn)動(dòng)控制。

或許這種方法除了用于動(dòng)物行為追蹤外,還可以用于機(jī)器人及其執(zhí)行器的末端追蹤,為抓取、放置的任務(wù)提供額外的信息。如果你想詳細(xì)了解這項(xiàng)研究,請(qǐng)參閱Nature的研究內(nèi)容:

https://www.nature.com/articles/s41593-018-0209-y

作者也發(fā)布了DeepLabCut的代碼,有興趣的小伙伴似乎可以為自家的狗子/貓寫一個(gè)行為追蹤程序,研究它們每天的活動(dòng)規(guī)律呢~代碼地址:

https://github.com/AlexEMG/DeepLabCut

作者在這里給出了詳細(xì)的安裝、配置、使用和標(biāo)注教程

https://alexemg.github.io/DeepLabCut/docs/demo-guide.html

(代碼主要基于TensorFlow構(gòu)建,包含了分析、測評(píng)工具和對(duì)應(yīng)的文檔。構(gòu)建網(wǎng)絡(luò)的核心代碼位于DeepLabCut/pose-tensorflow/pose_net.py的PoseNet類中。)

實(shí)驗(yàn)室主頁:

https://www.mousemotorlab.org/deeplabcut/

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:被盯上了!說你吶~哈佛大學(xué)研發(fā)出基于深度學(xué)習(xí)的無信標(biāo)自動(dòng)追蹤工具,可準(zhǔn)確追蹤動(dòng)物運(yùn)動(dòng)

文章出處:【微信號(hào):thejiangmen,微信公眾號(hào):將門創(chuàng)投】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    使用MATLAB進(jìn)行監(jiān)督學(xué)習(xí)

    監(jiān)督學(xué)習(xí)是一種根據(jù)未標(biāo)注數(shù)據(jù)進(jìn)行推斷的機(jī)器學(xué)習(xí)方法。監(jiān)督學(xué)習(xí)旨在識(shí)別數(shù)據(jù)中隱藏的模式和關(guān)系,無需任何監(jiān)督或關(guān)于結(jié)果的先驗(yàn)知識(shí)。
    的頭像 發(fā)表于 05-16 14:48 ?662次閱讀
    使用MATLAB進(jìn)行<b class='flag-5'>無</b>監(jiān)督<b class='flag-5'>學(xué)習(xí)</b>

    行業(yè)首創(chuàng):基于深度學(xué)習(xí)視覺平臺(tái)的AI驅(qū)動(dòng)輪胎檢測自動(dòng)

    全球領(lǐng)先的輪胎制造商 NEXEN TIRE 在其輪胎生產(chǎn)檢測過程中使用了基于友思特伙伴Neurocle開發(fā)的AI深度學(xué)習(xí)視覺平臺(tái),實(shí)現(xiàn)缺陷檢測率高達(dá)99.96%,是該行業(yè)首個(gè)使用AI平臺(tái)技術(shù)推動(dòng)缺陷檢測自動(dòng)化流程的企業(yè)。
    的頭像 發(fā)表于 03-19 16:51 ?434次閱讀
    行業(yè)首創(chuàng):基于<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>視覺平臺(tái)的AI驅(qū)動(dòng)輪胎檢測<b class='flag-5'>自動(dòng)</b>化

    在OpenVINO?工具套件的深度學(xué)習(xí)工作臺(tái)中無法導(dǎo)出INT8模型怎么解決?

    無法在 OpenVINO? 工具套件的深度學(xué)習(xí) (DL) 工作臺(tái)中導(dǎo)出 INT8 模型
    發(fā)表于 03-06 07:54

    軍事應(yīng)用中深度學(xué)習(xí)的挑戰(zhàn)與機(jī)遇

    人工智能尤其是深度學(xué)習(xí)技術(shù)的最新進(jìn)展,加速了不同應(yīng)用領(lǐng)域的創(chuàng)新與發(fā)展。深度學(xué)習(xí)技術(shù)的發(fā)展深刻影響了軍事發(fā)展趨勢,導(dǎo)致戰(zhàn)爭形式和模式發(fā)生重大變化。本文將概述
    的頭像 發(fā)表于 02-14 11:15 ?526次閱讀

    AI自動(dòng)化生產(chǎn):深度學(xué)習(xí)在質(zhì)量控制中的應(yīng)用

    隨著科技的飛速發(fā)展,人工智能(AI)與深度學(xué)習(xí)技術(shù)正逐步滲透到各個(gè)行業(yè),特別是在自動(dòng)化生產(chǎn)中,其潛力與價(jià)值愈發(fā)凸顯。深度學(xué)習(xí)軟件不僅使人工和
    的頭像 發(fā)表于 01-17 16:35 ?687次閱讀
    AI<b class='flag-5'>自動(dòng)</b>化生產(chǎn):<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>在質(zhì)量控制中的應(yīng)用

    NPU在深度學(xué)習(xí)中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)作為其核心驅(qū)動(dòng)力之一,已經(jīng)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和價(jià)值。NPU(Neural Processing Unit,神經(jīng)網(wǎng)絡(luò)處理單元)是專門為深度學(xué)習(xí)
    的頭像 發(fā)表于 11-14 15:17 ?1890次閱讀

    Pytorch深度學(xué)習(xí)訓(xùn)練的方法

    掌握這 17 種方法,用最省力的方式,加速你的 Pytorch 深度學(xué)習(xí)訓(xùn)練。
    的頭像 發(fā)表于 10-28 14:05 ?646次閱讀
    Pytorch<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>訓(xùn)練的方法

    GPU深度學(xué)習(xí)應(yīng)用案例

    能力,可以顯著提高圖像識(shí)別模型的訓(xùn)練速度和準(zhǔn)確性。例如,在人臉識(shí)別、自動(dòng)駕駛等領(lǐng)域,GPU被廣泛應(yīng)用于加速深度學(xué)習(xí)模型的訓(xùn)練和推理過程。 二、自然語言處理 自然語言處理(NLP)是深度
    的頭像 發(fā)表于 10-27 11:13 ?1328次閱讀

    激光雷達(dá)技術(shù)的基于深度學(xué)習(xí)的進(jìn)步

    信息。這使得激光雷達(dá)在自動(dòng)駕駛、無人機(jī)、機(jī)器人等領(lǐng)域具有廣泛的應(yīng)用前景。 二、深度學(xué)習(xí)技術(shù)的發(fā)展 深度學(xué)習(xí)是機(jī)器
    的頭像 發(fā)表于 10-27 10:57 ?1049次閱讀

    FPGA加速深度學(xué)習(xí)模型的案例

    FPGA(現(xiàn)場可編程門陣列)加速深度學(xué)習(xí)模型是當(dāng)前硬件加速領(lǐng)域的一個(gè)熱門研究方向。以下是一些FPGA加速深度學(xué)習(xí)模型的案例: 一、基于FPGA的AlexNet卷積運(yùn)算加速 項(xiàng)目名稱
    的頭像 發(fā)表于 10-25 09:22 ?1196次閱讀

    AI大模型與深度學(xué)習(xí)的關(guān)系

    AI大模型與深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進(jìn),相輔相成。以下是對(duì)兩者關(guān)系的介紹: 一、深度學(xué)習(xí)是AI大模型的基礎(chǔ) 技術(shù)支撐 :深度
    的頭像 發(fā)表于 10-23 15:25 ?2865次閱讀

    FPGA做深度學(xué)習(xí)能走多遠(yuǎn)?

    中的性能和效率。同時(shí),也可能會(huì)出現(xiàn)一些新的基于 FPGA 的深度學(xué)習(xí)算法創(chuàng)新,拓展其應(yīng)用領(lǐng)域。 ? 應(yīng)用領(lǐng)域的拓展:除了在圖像識(shí)別、語音處理、自動(dòng)駕駛等領(lǐng)域的應(yīng)用,F(xiàn)PGA 在深度
    發(fā)表于 09-27 20:53

    NVIDIA推出全新深度學(xué)習(xí)框架fVDB

    在 SIGGRAPH 上推出的全新深度學(xué)習(xí)框架可用于打造自動(dòng)駕駛汽車、氣候科學(xué)和智慧城市的 AI 就緒型虛擬表示。
    的頭像 發(fā)表于 08-01 14:31 ?1125次閱讀

    PyTorch深度學(xué)習(xí)開發(fā)環(huán)境搭建指南

    PyTorch作為一種流行的深度學(xué)習(xí)框架,其開發(fā)環(huán)境的搭建對(duì)于深度學(xué)習(xí)研究者和開發(fā)者來說至關(guān)重要。在Windows操作系統(tǒng)上搭建PyTorch環(huán)境,需要綜合考慮多個(gè)方面,包括軟件安裝、
    的頭像 發(fā)表于 07-16 18:29 ?2483次閱讀

    深度學(xué)習(xí)算法在集成電路測試中的應(yīng)用

    隨著半導(dǎo)體技術(shù)的快速發(fā)展,集成電路(IC)的復(fù)雜性和集成度不斷提高,對(duì)測試技術(shù)的要求也日益增加。深度學(xué)習(xí)算法作為一種強(qiáng)大的數(shù)據(jù)處理和模式識(shí)別工具,在集成電路測試領(lǐng)域展現(xiàn)出了巨大的應(yīng)用潛力。本文將從
    的頭像 發(fā)表于 07-15 09:48 ?1845次閱讀