一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

多倫多大學(xué)&NVIDIA最新成果 圖像標(biāo)注速度提升10倍

ml8z_IV_Technol ? 來源:fqj ? 2019-05-05 09:51 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

圖像標(biāo)注速度提升10倍!

這是多倫多大學(xué)與英偉達(dá)聯(lián)合公布的一項(xiàng)最新研究:Curve-GCN的應(yīng)用結(jié)果。

Curve-GCN是一種高效交互式圖像標(biāo)注方法,其性能優(yōu)于Polygon-RNN++。在自動(dòng)模式下運(yùn)行時(shí)間為29.3ms,在交互模式下運(yùn)行時(shí)間為2.6ms,比Polygon-RNN ++分別快10倍和100倍。

數(shù)據(jù)標(biāo)注是人工智能產(chǎn)業(yè)的基礎(chǔ),在機(jī)器的世界里,圖像與語音、視頻等一樣,是數(shù)據(jù)的一個(gè)種類。

對(duì)象實(shí)例分割是在圖像中概括給定類的所有對(duì)象的問題,這一任務(wù)在過去幾年受到了越來越多的關(guān)注,傳統(tǒng)標(biāo)記工具通常需要人工先在圖片上點(diǎn)擊光標(biāo)描記物體邊緣來進(jìn)行標(biāo)記。

然而,手動(dòng)跟蹤對(duì)象邊界是一個(gè)費(fèi)力的過程,每個(gè)對(duì)象大概需要30-60秒的時(shí)間。

為了緩解這個(gè)問題,已經(jīng)提出了許多交互式圖像分割技術(shù),其通過重要因素加速注釋。但是交互式分割方法大多是逐像素的(比如DEXTR),在顏色均勻的區(qū)域很難控制,所以最壞的情況下仍然需要很多點(diǎn)擊。

Polygon-RNN將humans-in-the-loop(人機(jī)回圈)過程進(jìn)行構(gòu)架,在此過程中模型按順序預(yù)測(cè)多邊形的頂點(diǎn)。通過糾正錯(cuò)誤的頂點(diǎn),注釋器可以在發(fā)生錯(cuò)誤時(shí)進(jìn)行干預(yù)。該模型通過調(diào)整校正來繼續(xù)其預(yù)測(cè)。 Polygon-RNN顯示在人類協(xié)議水平上產(chǎn)生注釋,每個(gè)對(duì)象實(shí)例只需點(diǎn)擊幾下。這里最糟糕的情況是多邊形頂點(diǎn)的數(shù)量,大多數(shù)對(duì)象的范圍最多為30-40個(gè)點(diǎn)。

然而,模型的重復(fù)性將可擴(kuò)展性限制為更復(fù)雜的形狀,導(dǎo)致更難的訓(xùn)練和更長(zhǎng)的推理。此外,期望注釋器按順序糾正錯(cuò)誤,這在實(shí)踐中通常是具有挑戰(zhàn)性的。

最新研究成果中,研究人員將對(duì)象注釋框架化為回歸問題,其中所有頂點(diǎn)的位置被同時(shí)預(yù)測(cè)。

在Curve-GCN中,注釋器會(huì)選擇一個(gè)對(duì)象,然后選擇多邊形或樣條輪廓。

Curve-GCN自動(dòng)地勾勒出對(duì)象的輪廓

Curve-GCN允許交互式更正,并且可以自動(dòng)重新預(yù)測(cè)多邊形/樣條

與Polygon-RNN + +相比:

Curve-GCN具有多邊形或樣條曲線參數(shù)

Curve-GCN可同時(shí)預(yù)測(cè)控制點(diǎn)(更快)

初始化預(yù)測(cè)

人工校正

模型校正

模型是在CityScapes數(shù)據(jù)集上訓(xùn)練的

自動(dòng)模式下的比較。從左到右:ground-truth, Polygon-GCN, Spline-GCN, ps - deeplab

跨域自動(dòng)模式。(上)cityscaps訓(xùn)練模型的開箱即用輸出,(下)使用來自新領(lǐng)域的10%的數(shù)據(jù)進(jìn)行微調(diào)。

多倫多大學(xué)&NVIDIA最新成果 圖像標(biāo)注速度提升10倍

多倫多大學(xué)&NVIDIA最新成果 圖像標(biāo)注速度提升10倍

將Polygon和Spline-GCN與Polygon-RNN ++和PSP-DeepLab進(jìn)行比較

模型在最先進(jìn)的基礎(chǔ)上進(jìn)行了改進(jìn),速度顯著加快,允許只具有局部效果的交互式更正,從而為注釋器提供了更多的控制。這將導(dǎo)致更好的整體注釋策略。

論文摘要

通過邊界跟蹤來手動(dòng)標(biāo)記對(duì)象是一個(gè)繁重的過程。在Polygon-RNN ++中,作者提出了Polygon-RNN,它使用CNN-RNN架構(gòu)以循環(huán)方式產(chǎn)生多邊形注釋,允許通過humans-in-the-loop(人機(jī)回圈)的方式進(jìn)行交互式校正。

我們提出了一個(gè)新的框架,通過使用圖形卷積網(wǎng)絡(luò)(GCN)同時(shí)預(yù)測(cè)所有頂點(diǎn),減輕了Polygon-RNN的時(shí)序性。我們的模型是端到端訓(xùn)練的。它支持多邊形或樣條對(duì)對(duì)象進(jìn)行標(biāo)注,從而提高了基于線和曲線對(duì)象的標(biāo)注效率。結(jié)果表明,在自動(dòng)模式下,Curve-GCN的性能優(yōu)于現(xiàn)有的所有方法,包括功能強(qiáng)大的PSP-DeepLab,并且在交互模式下,Curve-GCN的效率明顯高于Polygon-RNN++。我們的模型在自動(dòng)模式下運(yùn)行29.3ms,在交互模式下運(yùn)行2.6ms,比Polygon-RNN ++分別快10倍和100倍。

多倫多大學(xué)&NVIDIA最新成果 圖像標(biāo)注速度提升10倍

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 數(shù)據(jù)
    +關(guān)注

    關(guān)注

    8

    文章

    7256

    瀏覽量

    91830
  • 人工智能
    +關(guān)注

    關(guān)注

    1806

    文章

    49011

    瀏覽量

    249336
  • 英偉達(dá)
    +關(guān)注

    關(guān)注

    22

    文章

    3949

    瀏覽量

    93715

原文標(biāo)題:多倫多大學(xué)&NVIDIA最新成果:圖像標(biāo)注速度提升10倍!

文章出處:【微信號(hào):IV_Technology,微信公眾號(hào):智車科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    DeepSeek最新論文:訓(xùn)練速度提升9,推理速度快11!

    是上一代Grok2的15左右。在Benchmarks中,Grok3毫無懸念成功地領(lǐng)先Deepseek R1、o3 mini等對(duì)手。 ? 不過用如此大規(guī)模的算力集群,花費(fèi)上一代15的計(jì)算資源投入,業(yè)界認(rèn)為
    的頭像 發(fā)表于 02-20 11:25 ?2057次閱讀
    DeepSeek最新論文:訓(xùn)練<b class='flag-5'>速度</b><b class='flag-5'>提升</b>9<b class='flag-5'>倍</b>,推理<b class='flag-5'>速度</b>快11<b class='flag-5'>倍</b>!

    什么是自動(dòng)駕駛數(shù)據(jù)標(biāo)注?如何好做數(shù)據(jù)標(biāo)注

    、精準(zhǔn)且高效的數(shù)據(jù)標(biāo)注流程顯得尤為關(guān)鍵。那什么是數(shù)據(jù)標(biāo)注?如何做數(shù)據(jù)標(biāo)注? 自動(dòng)駕駛數(shù)據(jù)標(biāo)注是指在自動(dòng)駕駛系統(tǒng)所采集的感知數(shù)據(jù)(如攝像頭圖像
    的頭像 發(fā)表于 07-09 09:19 ?198次閱讀
    什么是自動(dòng)駕駛數(shù)據(jù)<b class='flag-5'>標(biāo)注</b>?如何好做數(shù)據(jù)<b class='flag-5'>標(biāo)注</b>?

    NVIDIA Blackwell GPU優(yōu)化DeepSeek-R1性能 打破DeepSeek-R1在最小延遲場(chǎng)景中的性能紀(jì)錄

    前將 67 token / 秒 (TPS) 的速度提升至 253 TPS(提速 3.7 ),而目前這一速度已達(dá) 368 TPS(提速 5.5
    的頭像 發(fā)表于 07-02 19:31 ?1727次閱讀
    <b class='flag-5'>NVIDIA</b> Blackwell GPU優(yōu)化DeepSeek-R1性能 打破DeepSeek-R1在最小延遲場(chǎng)景中的性能紀(jì)錄

    NVIDIA在ICRA 2025展示多項(xiàng)最新研究成果

    在亞特蘭大舉行的國際機(jī)器人與自動(dòng)化大會(huì) (ICRA) 上,NVIDIA 展示了其在生成式 AI、仿真和自主操控領(lǐng)域的多項(xiàng)研究成果。
    的頭像 發(fā)表于 06-06 14:56 ?581次閱讀

    AI時(shí)代 圖像標(biāo)注不要沒苦硬吃

    識(shí)別算法的性能提升依靠大量的圖像標(biāo)注,傳統(tǒng)模式下,需要人工對(duì)同類型數(shù)據(jù)集進(jìn)行一步步手動(dòng)拉框,這個(gè)過程的痛苦只有做過的人才知道。越多素材的數(shù)據(jù)集對(duì)于算法的提升越有幫助,常規(guī)情況下,一個(gè)2
    的頭像 發(fā)表于 05-20 17:54 ?198次閱讀
    AI時(shí)代   <b class='flag-5'>圖像</b><b class='flag-5'>標(biāo)注</b>不要沒苦硬吃

    意法半導(dǎo)體收購多倫多初創(chuàng)公司Deeplite,助力邊緣AI技術(shù)發(fā)展!

    近日,意法半導(dǎo)體(STMicroelectronics,簡(jiǎn)稱ST)宣布已成功收購加拿大多倫多的初創(chuàng)公司Deeplite。這一戰(zhàn)略性收購旨在加強(qiáng)意法半導(dǎo)體在邊緣人工智能(AI)技術(shù)領(lǐng)域的布局,并將
    的頭像 發(fā)表于 04-28 11:28 ?497次閱讀
    意法半導(dǎo)體收購<b class='flag-5'>多倫多</b>初創(chuàng)公司Deeplite,助力邊緣AI技術(shù)發(fā)展!

    大模型預(yù)標(biāo)注和自動(dòng)化標(biāo)注在OCR標(biāo)注場(chǎng)景的應(yīng)用

    OCR,即光學(xué)字符識(shí)別,簡(jiǎn)單來說就是利用光學(xué)設(shè)備去捕獲圖像并識(shí)別文字,最終將圖片中的文字轉(zhuǎn)換為可編輯和可搜索的文本。在數(shù)字化時(shí)代,OCR(光學(xué)字符識(shí)別)技術(shù)作為處理圖像中文字信息的關(guān)鍵手段,其標(biāo)注
    的頭像 發(fā)表于 04-15 15:18 ?374次閱讀

    開源軟件的價(jià)值解讀 哈佛商學(xué)院和多倫多大學(xué)聯(lián)合撰寫

    “ ?周末分享一篇關(guān)于開源軟件價(jià)值的論文,由哈佛商學(xué)院和多倫多大學(xué)聯(lián)合撰寫,量化地闡述了開源軟件對(duì)經(jīng)濟(jì)及企業(yè)的影響。? ” 原文在這里,大家有時(shí)間可以仔細(xì)閱讀: https
    的頭像 發(fā)表于 03-24 11:11 ?410次閱讀

    自動(dòng)化標(biāo)注技術(shù)推動(dòng)AI數(shù)據(jù)訓(xùn)練革新

    標(biāo)貝自動(dòng)化數(shù)據(jù)標(biāo)注平臺(tái)在全棧數(shù)據(jù)標(biāo)注場(chǎng)景式中搭載了大模型預(yù)標(biāo)注和自動(dòng)化標(biāo)注能力,并應(yīng)用于3D點(diǎn)云、2D圖像、音頻、文本等數(shù)據(jù)場(chǎng)景的大規(guī)模、復(fù)
    的頭像 發(fā)表于 03-14 16:46 ?671次閱讀

    NVIDIA技術(shù)助力Pantheon Lab數(shù)字人實(shí)時(shí)交互解決方案

    NVIDIA Triton,Pantheon Lab 訓(xùn)練速度提高 10 、推理延遲降低 50%,以及用戶參與度提升 30%。這些進(jìn)步使
    的頭像 發(fā)表于 01-14 11:19 ?625次閱讀

    AI自動(dòng)圖像標(biāo)注工具SpeedDP將是數(shù)據(jù)標(biāo)注行業(yè)發(fā)展的重要引擎

    AI大浪潮下,許多企業(yè)都在不斷借助AI來提升自己的行業(yè)競(jìng)爭(zhēng)力,數(shù)據(jù)標(biāo)注企業(yè)也不例外,傳統(tǒng)人工標(biāo)注效率不足的弊端困擾了多年,如今新的“引擎”就在眼前,他們當(dāng)然不會(huì)放過這個(gè)機(jī)會(huì)。針對(duì)這樣的需求,慧視光電
    的頭像 發(fā)表于 01-02 17:53 ?794次閱讀
    AI自動(dòng)<b class='flag-5'>圖像</b><b class='flag-5'>標(biāo)注</b>工具SpeedDP將是數(shù)據(jù)<b class='flag-5'>標(biāo)注</b>行業(yè)發(fā)展的重要引擎

    盤點(diǎn)NVIDIA 2024年的創(chuàng)新成果

    在2024年,AI 的影響力已經(jīng)擴(kuò)展到加速計(jì)算和數(shù)據(jù)科學(xué)等多個(gè)關(guān)鍵領(lǐng)域,成為驅(qū)動(dòng)各行各業(yè)技術(shù)革新和產(chǎn)業(yè)升級(jí)的關(guān)鍵因素。在這一年里,NVIDIA 又帶來了哪些創(chuàng)新成果,實(shí)現(xiàn)了哪些突破?跟隨本文一起盤點(diǎn) NVIDIA 2024 年重
    的頭像 發(fā)表于 01-02 14:32 ?675次閱讀

    標(biāo)貝數(shù)據(jù)標(biāo)注在智能駕駛訓(xùn)練中的落地案例

    標(biāo)貝科技深耕AI數(shù)據(jù)服務(wù)多年,在無人駕駛、自動(dòng)駕駛等智能駕駛領(lǐng)域擁有豐富的合作案例。多次采用點(diǎn)云標(biāo)注以及3D&amp;2D融合等標(biāo)注方式為智能駕駛領(lǐng)域客戶提供環(huán)境感知、決策策劃、車道線標(biāo)注
    的頭像 發(fā)表于 12-24 15:17 ?1548次閱讀
    標(biāo)貝數(shù)據(jù)<b class='flag-5'>標(biāo)注</b>在智能駕駛訓(xùn)練中的落地案例

    NVIDIA Research在ECCV 2024上展示多項(xiàng)創(chuàng)新成果

    在米蘭舉行的歐洲計(jì)算機(jī)視覺國際會(huì)議 (ECCV) 上,NVIDIA Research 展示了多項(xiàng)突破性的創(chuàng)新成果,共發(fā)表了 14 篇論文。
    的頭像 發(fā)表于 11-19 15:07 ?763次閱讀

    極端數(shù)據(jù)采集引領(lǐng)計(jì)算機(jī)視覺應(yīng)用新篇章

    多倫多大學(xué)的計(jì)算成像研究人員用他們獨(dú)特的相機(jī)捕捉到了奇怪的信號(hào)。多倫多計(jì)算機(jī)成像小組在實(shí)驗(yàn)室中使用單光子雪崩二極管 (SPAD) 相機(jī)檢測(cè)到無法解釋的 80 千赫 (kHz) 閃爍。 他們利用強(qiáng)大
    的頭像 發(fā)表于 11-18 10:56 ?544次閱讀