一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

漲點!FreeMask:用密集標注的合成圖像提升分割模型性能

CVer ? 來源:CVer ? 2023-11-01 16:09 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在這里分享一下我們NeurIPS 2023的工作"FreeMask: Synthetic Images with Dense Annotations Make Stronger Segmentation Models"。在本工作中,我們從語義分割的mask產(chǎn)生大量的合成圖像,并利用這些合成的訓(xùn)練圖像以及他們對應(yīng)的mask提升在全量真實數(shù)據(jù)上訓(xùn)練的語義分割模型的性能, e.g., 在ADE20K上,可以將Mask2Former-Swin-T從48.7提升至52.0(+3.3 mIoU)。

583392b0-7882-11ee-939d-92fbcf53809c.png

代碼:github.com/LiheYoung/FreeMask 論文:https://arxiv.org/abs/2310.15160

在上面的repo中我們也提供了處理過后的ADE20K-Synthetic數(shù)據(jù)集(包含ADE20K的20倍的訓(xùn)練圖像)和COCO-Synthetic數(shù)據(jù)集(包含COCO-Stuff-164K的6倍的訓(xùn)練圖像),以及結(jié)合合成數(shù)據(jù)訓(xùn)練后更好的Mask2Former、SegFormer、Segmenter模型的checkpoints。

TL;DR

不同于以往的一些工作利用合成數(shù)據(jù)提升few-shot performance(只用少量的真實數(shù)據(jù)),我們希望利用合成數(shù)據(jù)直接提升fully-supervised performance(用全量的真實數(shù)據(jù)),這更有挑戰(zhàn)性。

我們利用semantic image synthesis模型來從semantic mask產(chǎn)生diverse的合成圖像。然而,直接將這些合成圖像加入訓(xùn)練,其實并不能提升real-image baseline,反而會損害性能。

因此,我們設(shè)計了一個noise filtering策略以及一個image re-sampling策略來更有效地學(xué)習(xí)合成數(shù)據(jù),最終在ADE20K(20,210張真實圖像)和COCO-Stuff(164K張真實圖像)的各種模型上都能取得提升。此外,我們發(fā)現(xiàn)結(jié)合我們的策略后,只利用合成數(shù)據(jù)也可以取得和真實數(shù)據(jù)comparable的效果。

Take-home Messages

在全量真實數(shù)據(jù)的基礎(chǔ)上,有效地利用合成數(shù)據(jù)并不容易,需要生成模型足夠好以及設(shè)計合適的學(xué)習(xí)合成數(shù)據(jù)策略。

在初始階段我們嘗試了多個GAN-based從mask生成image的模型 (e.g., OASIS[1]),盡管他們的FID指標還不錯,但遷移到真實數(shù)據(jù)集上的表現(xiàn)很差(這里的遷移性能,指在合成數(shù)據(jù)集上訓(xùn)練但在真實驗證集上測試,ADE20K上的mIoU只有~30%)。

基于Stable Diffusion的mask-to-image synthesis model是更好的選擇,如FreestyleNet[2]。

在生成質(zhì)量比較高以及篩選策略比較合理的情況下,joint train合成數(shù)據(jù)和真實數(shù)據(jù)會優(yōu)于先用合成數(shù)據(jù)pre-train再用真實數(shù)據(jù)fine-tune的效果。

Introduction

584a7c50-7882-11ee-939d-92fbcf53809c.png

FreestyleNet基于semantic mask產(chǎn)生的合成圖像,非常diverse以及逼真

Stable Diffusion (SD)等模型已經(jīng)取得了非常好的text-to-image生成效果,過去一年里,semantic image synthesis領(lǐng)域的工作也開始結(jié)合SD的預(yù)訓(xùn)練來從semantic mask生成對應(yīng)的image。其中,我們發(fā)現(xiàn)FreestyleNet[2]的生成效果非常好,如上圖所示。因此,我們希望用這些合成圖像以及他們condition on的semantic mask組成新的合成訓(xùn)練樣本對,加入到原有的真實訓(xùn)練集中,進一步提升模型的性能。

簡單的失敗嘗試

我們首先檢查了這些合成圖像到真實圖像的遷移性能,即用合成圖像訓(xùn)練但在真實圖像的驗證集上測試。我們用SegFormer-B4在真實圖像上訓(xùn)練可以取得48.5的測試mIoU,然而用比真實訓(xùn)練集大20倍的合成數(shù)據(jù)訓(xùn)練后,只得到了43.3 mIoU。此外,我們也嘗試混合真實數(shù)據(jù)和合成數(shù)據(jù)(會對真實數(shù)據(jù)上采樣到和合成數(shù)據(jù)一樣多,因為其質(zhì)量更高),然而也只取得了48.2 mIoU,依然落后于僅用真實圖像訓(xùn)練的結(jié)果。

因此,我們希望能更有效地從這些合成數(shù)據(jù)中進行學(xué)習(xí)。

Motivation

由于上述合成數(shù)據(jù)的結(jié)果并不好,我們更仔細地觀察了一下合成數(shù)據(jù)集,發(fā)現(xiàn)其中存在著很多合成錯誤的區(qū)域,如下圖所示的紅色框區(qū)域。這些合成錯誤的區(qū)域加入到訓(xùn)練集中后會嚴重損害模型的性能。

5859cfe8-7882-11ee-939d-92fbcf53809c.png

紅色框內(nèi)的合成結(jié)果是錯誤的

此外,不同的semantic mask對應(yīng)著不同的場景,不同的場景的學(xué)習(xí)難度其實是不一樣的,因此它們所需的合成訓(xùn)練圖像的數(shù)量也是不一樣的。如下圖所示,大體上來看,從左至右semantic mask對應(yīng)的場景的難度是逐漸增加的,如果對每張mask產(chǎn)生同樣數(shù)量的合成圖像去學(xué)習(xí)的話,那么這些簡單的mask對應(yīng)的圖像就可能會主導(dǎo)模型的學(xué)習(xí),模型的學(xué)習(xí)效率就會很低。

586e2e66-7882-11ee-939d-92fbcf53809c.png

不同的semantic mask對應(yīng)的場景的難度是不一樣的,大體上來看,從左至右難度逐漸增加

Method

5876431c-7882-11ee-939d-92fbcf53809c.png

有了上述的兩個motivation,具體的做法是非常簡單的。

Filtering Noisy Synthetic Regions

針對第一點motivation,我們設(shè)計了一個noise filtering的策略,來忽略掉合成錯誤的區(qū)域。具體來說,我們利用一個在真實圖像上訓(xùn)練好的模型去計算每張合成圖像和它對應(yīng)的semantic mask之間的pixel-wise loss,直觀來看,合成錯誤的區(qū)域 (pixels)會呈現(xiàn)比較大的loss。此外,loss的大小也跟不同類別本身的難度有關(guān)。

58949b14-7882-11ee-939d-92fbcf53809c.png

Hardness-aware Re-sampling

針對第二點motivation,我們設(shè)計了一個hardness-aware re-sampling策略,來讓我們的數(shù)據(jù)合成以及訓(xùn)練更加偏向比較難的場景 (semantic mask),如下圖所示。

58a42390-7882-11ee-939d-92fbcf53809c.png

為harder的semantic mask產(chǎn)生更多的合成圖像,而減少簡單的mask的合成圖像

58b0980a-7882-11ee-939d-92fbcf53809c.png

Learning Paradigms

我們探討了兩種從合成圖像中進行學(xué)習(xí)的范式,分別是:

Pre-training: 用合成圖像pre-training,然后用真實圖像進一步fine-tuning

Joint training: 混合真實圖像和合成圖像(會對真實圖像上采樣到與合成圖像同樣的數(shù)量)一起訓(xùn)練

簡單來說,我們發(fā)現(xiàn)在生成質(zhì)量比較高以及篩選策略比較合理的情況下,joint training的表現(xiàn)會更好一些。

Experiment

對比合成圖像和真實圖像遷移到真實測試集的性能

58c69be6-7882-11ee-939d-92fbcf53809c.png

用真實圖像或合成圖像進行訓(xùn)練,并在真實驗證集上測試

可以看到,在多種模型上,用合成圖像遷移到真實驗證集都可以取得和真實訓(xùn)練集comparable的效果。

用合成圖像進一步提升全監(jiān)督的分割模型性能

Joint training on ADE20K

58d35926-7882-11ee-939d-92fbcf53809c.png

當加入了合成數(shù)據(jù)后,真實圖像的全監(jiān)督性能獲得了顯著的提升,特別是對于Mask2Former-Swin-T,我們將mIoU從48.7提升至了52.0(+3.3);對于SegFormer-B4,從48.5提升至了50.6 (+2.1)。

Joint training on COCO-Stuff-164K

58e92832-7882-11ee-939d-92fbcf53809c.png

COCO-Stuff-164K由于原本的真實數(shù)據(jù)量很大,所以更難提升,但我們在Mask2Former-Swi-T上仍然取得了+1.9 mIoU的提升。

Pre-training with synthetic images on ADE20K

58f10cbe-7882-11ee-939d-92fbcf53809c.png

Ablation Studies

我們的noise filtering和hardness-aware re-sampling的必要性

5939d552-7882-11ee-939d-92fbcf53809c.png

在沒有filtering和re-sampling的情況下,F(xiàn)reestyleNet產(chǎn)生的合成圖像在ADE20K和COCO的真實集上只能得到43.3和48.0的遷移性能,遠遠劣于真實訓(xùn)練圖像的遷移性能(ADE20K: 48.5和COCO: 50.5),而應(yīng)用我們的策略后,純合成圖像的遷移性能可以提升至48.3 (ADE20K)和49.3 (COCO),十分接近真實訓(xùn)練圖像的表現(xiàn)。

5948279c-7882-11ee-939d-92fbcf53809c.png

在joint training下,我們的兩項策略也是十分有效的,如果沒有這兩個策略,混合合成圖像和真實圖像只能取得48.2的mIoU (真實圖像:48.5),而加入我們的策略后,可以將真實圖像48.5的baseline提升至50.6。

合成圖像的數(shù)量

594f78c6-7882-11ee-939d-92fbcf53809c.png

Nmax 控制單張mask最多產(chǎn)生多少張合成圖像,在沒有filtering和re-sampling的情況下,增加合成圖像的數(shù)量反而帶來了更差的遷移性能;而在經(jīng)過filtering和re-sampling后,Nmax從6增加到20可以帶來穩(wěn)定的遷移性能的提升。

更多的ablation studies請參考我們的文章。

Conclusion

在本工作中,我們通過從semantic mask產(chǎn)生合成圖像,組成大量的合成訓(xùn)練數(shù)據(jù)對,在ADE20K和COCO-Stuff-164K上顯著提升了多種語義分割模型在全監(jiān)督設(shè)定下的性能。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 數(shù)據(jù)
    +關(guān)注

    關(guān)注

    8

    文章

    7257

    瀏覽量

    91942
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1094

    瀏覽量

    41302
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1224

    瀏覽量

    25463

原文標題:NeurIPS 2023 | 漲點!FreeMask:用密集標注的合成圖像提升分割模型性能

文章出處:【微信號:CVer,微信公眾號:CVer】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    什么是自動駕駛數(shù)據(jù)標注?如何好做數(shù)據(jù)標注

    [首發(fā)于智駕最前沿微信公眾號]在自動駕駛系統(tǒng)的開發(fā)過程中,數(shù)據(jù)標注是一項至關(guān)重要的工作。它不僅決定了模型訓(xùn)練的質(zhì)量,也直接影響了車輛感知、決策與控制的性能表現(xiàn)。隨著傳感器種類和數(shù)據(jù)量的劇增,有效
    的頭像 發(fā)表于 07-09 09:19 ?257次閱讀
    什么是自動駕駛數(shù)據(jù)<b class='flag-5'>標注</b>?如何好做數(shù)據(jù)<b class='flag-5'>標注</b>?

    【正點原子STM32MP257開發(fā)板試用】基于 DeepLab 模型圖像分割

    【正點原子STM32MP257開發(fā)板試用】圖像分割 本文介紹了正點原子 STM32MP257 開發(fā)板基于 DeepLab 模型實現(xiàn)圖像分割
    發(fā)表于 06-21 21:11

    數(shù)據(jù)標注與大模型的雙向賦能:效率與性能的躍升

    ??在人工智能蓬勃發(fā)展的時代,大模型憑借其強大的學(xué)習(xí)與泛化能力,已成為眾多領(lǐng)域創(chuàng)新變革的核心驅(qū)動力。而數(shù)據(jù)標注作為大模型訓(xùn)練的基石,為大模型性能
    的頭像 發(fā)表于 06-04 17:15 ?720次閱讀
    數(shù)據(jù)<b class='flag-5'>標注</b>與大<b class='flag-5'>模型</b>的雙向賦能:效率與<b class='flag-5'>性能</b>的躍升

    AI時代 圖像標注不要沒苦硬吃

    識別算法的性能提升依靠大量的圖像標注,傳統(tǒng)模式下,需要人工對同類型數(shù)據(jù)集進行一步步手動拉框,這個過程的痛苦只有做過的人才知道。越多素材的數(shù)據(jù)集對于算法的
    的頭像 發(fā)表于 05-20 17:54 ?206次閱讀
    AI時代   <b class='flag-5'>圖像</b><b class='flag-5'>標注</b>不要沒苦硬吃

    基于RV1126開發(fā)板實現(xiàn)自學(xué)習(xí)圖像分類方案

    在RV1126開發(fā)板上實現(xiàn)自學(xué)習(xí):在識別前對物體圖片進行模型學(xué)習(xí),訓(xùn)練完成后通過算法分類得出圖像模型ID。 方案設(shè)計邏輯流程圖,方案代碼分為分為兩個業(yè)務(wù)流程,主體代碼負責(zé)抓取、
    的頭像 發(fā)表于 04-21 13:37 ?11次閱讀
    基于RV1126開發(fā)板實現(xiàn)自學(xué)習(xí)<b class='flag-5'>圖像</b>分類方案

    模型預(yù)標注和自動化標注在OCR標注場景的應(yīng)用

    OCR,即光學(xué)字符識別,簡單來說就是利用光學(xué)設(shè)備去捕獲圖像并識別文字,最終將圖片中的文字轉(zhuǎn)換為可編輯和可搜索的文本。在數(shù)字化時代,OCR(光學(xué)字符識別)技術(shù)作為處理圖像中文字信息的關(guān)鍵手段,其標注
    的頭像 發(fā)表于 04-15 15:18 ?383次閱讀

    數(shù)據(jù)標注服務(wù)—奠定大模型訓(xùn)練的數(shù)據(jù)基石

    數(shù)據(jù)標注是大模型訓(xùn)練過程中不可或缺的基礎(chǔ)環(huán)節(jié),其質(zhì)量直接影響著模型性能表現(xiàn)。在大模型訓(xùn)練中,數(shù)據(jù)標注
    的頭像 發(fā)表于 03-21 10:30 ?849次閱讀

    標貝數(shù)據(jù)標注服務(wù):奠定大模型訓(xùn)練的數(shù)據(jù)基石

    數(shù)據(jù)標注是大模型訓(xùn)練過程中不可或缺的基礎(chǔ)環(huán)節(jié),其質(zhì)量直接影響著模型性能表現(xiàn)。在大模型訓(xùn)練中,數(shù)據(jù)標注
    的頭像 發(fā)表于 03-21 10:27 ?574次閱讀
    標貝數(shù)據(jù)<b class='flag-5'>標注</b>服務(wù):奠定大<b class='flag-5'>模型</b>訓(xùn)練的數(shù)據(jù)基石

    自動化標注技術(shù)推動AI數(shù)據(jù)訓(xùn)練革新

    標貝自動化數(shù)據(jù)標注平臺在全棧數(shù)據(jù)標注場景式中搭載了大模型預(yù)標注和自動化標注能力,并應(yīng)用于3D
    的頭像 發(fā)表于 03-14 16:46 ?695次閱讀

    標貝自動化數(shù)據(jù)標注平臺推動AI數(shù)據(jù)訓(xùn)練革新

    標貝自動化數(shù)據(jù)標注平臺在全棧數(shù)據(jù)標注場景式中搭載了大模型預(yù)標注和自動化標注能力,并應(yīng)用于3D
    的頭像 發(fā)表于 03-14 16:42 ?915次閱讀
    標貝自動化數(shù)據(jù)<b class='flag-5'>標注</b>平臺推動AI數(shù)據(jù)訓(xùn)練革新

    【「基于大模型的RAG應(yīng)用開發(fā)與優(yōu)化」閱讀體驗】+大模型微調(diào)技術(shù)解讀

    重復(fù)項或使用編輯距離算法比較文本相似度。數(shù)據(jù)標注:高質(zhì)量的數(shù)據(jù)標注直接影響模型性能。標注過程應(yīng)遵循明確
    發(fā)表于 01-14 16:51

    AI自動圖像標注工具SpeedDP將是數(shù)據(jù)標注行業(yè)發(fā)展的重要引擎

    利用AI模型訓(xùn)練打造的深度學(xué)習(xí)算法開發(fā)平臺SpeedDP,就可以替代人工進行海量的圖像數(shù)據(jù)標注。相比于人工,SpeedDP具有多個優(yōu)勢。更快熟練的人工標注一張簡單
    的頭像 發(fā)表于 01-02 17:53 ?815次閱讀
    AI自動<b class='flag-5'>圖像</b><b class='flag-5'>標注</b>工具SpeedDP將是數(shù)據(jù)<b class='flag-5'>標注</b>行業(yè)發(fā)展的重要引擎

    AI模型部署邊緣設(shè)備的奇妙之旅:目標檢測模型

    某些類型模型的訓(xùn)練過程。 保留稀疏激活:與ReLU類似,Leaky ReLU仍然能夠促進稀疏激活,這對模型的學(xué)習(xí)是有利的。 缺點: 性能提升有限:盡管Leaky ReLU解決了ReLU
    發(fā)表于 12-19 14:33

    語義分割25種損失函數(shù)綜述和展望

    語義圖像分割,即將圖像中的每個像素分類到特定的類別中,是許多視覺理解系統(tǒng)中的重要組成部分。作為評估統(tǒng)計模型性能的主要標準,損失函數(shù)對于塑造基
    的頭像 發(fā)表于 10-22 08:04 ?1625次閱讀
    語義<b class='flag-5'>分割</b>25種損失函數(shù)綜述和展望

    SpeedDP! 超便利AI自動圖像標注工具 功能豐富、省時省力

    超級AI,在線標注,既能解放雙手,又省時省力。傳統(tǒng)的標注模式需要你對著目標不斷拉框,反復(fù)機械的動作做多了就變得“麻木”,影響效率還使人煩惱。而SpeedDP的出現(xiàn),可以有效的提升標注
    的頭像 發(fā)表于 08-30 12:59 ?776次閱讀
    SpeedDP! 超便利AI自動<b class='flag-5'>圖像</b><b class='flag-5'>標注</b>工具   功能豐富、省時省力