一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

圖像分割的背景知識

新機器視覺 ? 來源:新機器視覺 ? 作者:新機器視覺 ? 2020-12-28 14:22 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

導讀

一個很好的入門小短文,內(nèi)容很全,適合上手。

在這篇文章中,我們將進入使用深度學習進行圖像分割的世界。我們將討論:

圖像分割是什么以及圖像分割的兩種主要類型

圖像分割結(jié)構(gòu)

圖像分割中使用的損失函數(shù)

你可以使用的框架

就讓我們一探究竟吧。

什么是圖像分割?

顧名思義,這是將圖像分割為多個部分的過程。在這個過程中,圖像中的每個像素都與一個對象類型相關(guān)聯(lián)。圖像分割主要有兩種類型:語義分割和實例分割。

在語義分割中,所有相同類型的對象都使用一個類標簽進行標記,而在實例分割中,相似的對象使用各自的標簽。

圖像分割結(jié)構(gòu)

圖像分割的基本結(jié)構(gòu)包括編碼器和解碼器。

編碼器通過濾波器從圖像中提取特征。解碼器負責生成最終輸出,該輸出通常是包含對象輪廓的分割掩碼。大多數(shù)架構(gòu)都有這種架構(gòu)或它的變體。

讓我們來看幾個例子。

U-Net

U-Net是一種卷積神經(jīng)網(wǎng)絡(luò),最初是為分割生物醫(yī)學圖像而開發(fā)的。當它被可視化的時候,它的架構(gòu)看起來像字母U,因此被命名為U-Net。其體系結(jié)構(gòu)由兩部分組成,左側(cè)為收縮路徑,右側(cè)為擴展路徑。收縮路徑的目的是獲取上下文,而擴展路徑的作用是幫助精確定位。

U-Net是由右側(cè)的擴張路徑和左側(cè)的收縮路徑組成的。收縮路徑由兩個3乘3的卷積組成。卷積之后是一個ReLU和一個2x2的最大池計算用于下采樣。

你可以在這里找到U-Net的完整實現(xiàn):https://lmb.informatik.uni-freiburg.de/people/ronneber/u-net/。

FastFCN —Fast Fully-connected network

在這個架構(gòu)中,使用一個聯(lián)合金字塔上采樣(JPU)模塊來替換膨脹卷積,因為它們消耗大量的內(nèi)存和時間。在應用JPU進行上采樣時,其核心部分采用全連接網(wǎng)絡(luò)。JPU將低分辨率的feature map采樣到高分辨率feature map。

如果你想動手實現(xiàn)一些代碼,看這里:https://github.com/wuhuikai/FastFCN。

Gated-SCNN

這個架構(gòu)由一個 two-stream CNN架構(gòu)組成。在該模型中,使用一個單獨的分支來處理圖像的形狀信息。利用形狀流來處理邊界信息。

實現(xiàn)參考代碼:https://github.com/nv-tlabs/gscnn

DeepLab

在這種架構(gòu)中,上采樣濾波器的卷積用于涉及密集預測的任務(wù)。多尺度的目標分割是通過空間金字塔池實現(xiàn)的。最后,利用DCNNs來改進目標邊界的定位。通過對濾波器插入零進行上采樣或?qū)斎胩卣鲌D進行稀疏采樣來實現(xiàn)卷積。

實現(xiàn)參考代碼:https://github.com/fregu856/deeplabv3,https://github.com/sthalles/deeplab_v3

Mask R-CNN

在這個架構(gòu)中,使用邊界框和語義分割將每個像素劃分為一組類別,對對象進行分類和局部化。對每個感興趣的區(qū)域得到一個分割掩碼,生成一個類標簽和一個邊界框作為最終輸出。該架構(gòu)是Faster R-CNN的擴展。Faster R-CNN由regions proposer和深度卷積網(wǎng)絡(luò)和利局部檢測器組成。

這里是COCO測試集中的一張圖像的結(jié)果:

圖像分割損失函數(shù)

語義分割模型在訓練過程中通常使用一個簡單的交叉分類熵損失函數(shù)。但是,如果你對獲取圖像的細粒度信息感興趣,那么你需要用到稍微高級一點的損失函數(shù)。

我們來看看其中的幾個。

Focal Loss

這種損失是對標準交叉熵的改進。這是通過改變它的形狀來實現(xiàn)的,這樣分配給分類良好的樣本的損失就降低了。最終,這確保了沒有類別不平衡。在這個損失函數(shù)中,交叉熵損失被縮放,隨著對正確類的置信度的增加,縮放因子衰減為零。在訓練時,比例因子會自動降低簡單樣本的權(quán)重,并聚焦于困難樣本。

30040146-29d7-11eb-a64d-12bb97331649.png

Dice loss

這個損失是通過計算smooth dice coefficient得到的。這種損失是最常用的分割損失。

30239088-29d7-11eb-a64d-12bb97331649.png

Intersection over Union (IoU)-balanced Loss

IoU平衡分類損失的目的是增加高IoU樣本的梯度,降低低IoU樣本的梯度。這樣提高了機器學習模型的定位精度。

3043a8c8-29d7-11eb-a64d-12bb97331649.png

Boundary loss

邊界損失的一種變體應用于分割高度不平衡的任務(wù)。這種損失的形式是空間等高線上的距離度量,而不是區(qū)域。這種方法解決了高度不平衡的分割任務(wù)中區(qū)域損失的問題。

30610a12-29d7-11eb-a64d-12bb97331649.png

Weighted cross-entropy

在交叉熵的一種變體中,所有正樣本都用一定的系數(shù)進行加權(quán)。它用于類別不平衡的場景。

30773f26-29d7-11eb-a64d-12bb97331649.png

Lovász-Softmax loss

該損失是對基于子模塊損失凸Lovasz擴展的神經(jīng)網(wǎng)絡(luò)平均IoU損失的直接優(yōu)化。

309a68fc-29d7-11eb-a64d-12bb97331649.png

其他值得一提的損失包括:

TopK loss,其目的是確保網(wǎng)絡(luò)在訓練過程中聚焦于困難樣本上。

距離懲罰交叉熵損失,引導網(wǎng)絡(luò)難以分割的邊界地區(qū)。

敏感性-特異性(SS)損失,計算特異性和敏感性的均方差的加權(quán)和。

Hausdorff distance(HD) loss,估計了卷積神經(jīng)網(wǎng)絡(luò)的Hausdorff距離。

這只是在圖像分割中使用的幾個損失函數(shù)。想了解更多內(nèi)容,看這里:https://github.com/JunMa11/SegLoss。

圖像分割數(shù)據(jù)集

從哪里可以得到一些數(shù)據(jù)集來開始?讓我們來看幾個例子。

Common Objects in COntext?—?Coco Dataset

COCO是一個大型物體檢測、分割和圖像描述數(shù)據(jù)集。數(shù)據(jù)集包含91個類。它有25萬個人標注了關(guān)鍵點。它的大小是37.57 GiB。它包含80個物體類別。它遵循Apache 2.0許可,下載鏈接:http://cocodataset.org/#download。

PASCAL Visual Object Classes (PASCAL VOC)

PASCAL有9963個圖像和20個不同的類。訓練/驗證集是一個2GB的tar文件。數(shù)據(jù)集下載:http://host.robots.ox.ac.uk/pascal/VOC/voc2012/。

The Cityscapes Dataset

此數(shù)據(jù)集包含城市場景的圖像。它可以用來評估城市場景中視覺算法的性能。數(shù)據(jù)集下載:https://www.cityscapes-dataset.com/downloads/。

The Cambridge-driving Labeled Video Database?—?CamVid

這是一個基于運動的分割和識別數(shù)據(jù)集。它包含32個語義類。數(shù)據(jù)集下載:http://mi.eng.cam.ac.uk/research/projects/VideoRec/CamVid/。

圖像分割框架

現(xiàn)在你已經(jīng)有了數(shù)據(jù)集,讓我們介紹一些工具/框架,你可以使用它們來開始。

FastAI library- 給定一幅圖像,該庫能夠創(chuàng)建該圖像中對象的mask。

Sefexa Image Segmentation Tool?- Sefexa是一個免費的工具,可以用于半自動圖像分割,圖像分析,創(chuàng)建ground truth

Deepmask- Deepmask由Facebook Research開發(fā),是Deepmask和SharpMask的Torch實現(xiàn)。

MultiPath- 這是來源于A MultiPath Network for Object Detection的物體檢測網(wǎng)絡(luò)的Torch實現(xiàn)。

OpenCV- 這是一個開源的計算機視覺庫,有超過2500個優(yōu)化算法。

MIScnn- 這是一個醫(yī)學圖像分割開源庫。它使用最先進的卷積神經(jīng)網(wǎng)絡(luò)和深度學習模型建立管道,只需幾行代碼。

Fritz- Fritz提供多種計算機視覺工具,包括用于移動設(shè)備的圖像分割工具。

總結(jié)

本文為你提供了一些圖像分割的背景知識,并為你提供了一些工具和框架,可以用于入門。

我們討論了:

什么是圖像分割,

圖像分割架構(gòu),

圖像分割損失,

圖像分割工具和框架。

責任編輯:lq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標題:圖像分割2020總結(jié):結(jié)構(gòu),損失函數(shù),數(shù)據(jù)集和框架

文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    迅為RK3576開發(fā)板攝像頭實時推理測試-ppseg?圖像分割

    迅為RK3576開發(fā)板攝像頭實時推理測試-ppseg 圖像分割
    的頭像 發(fā)表于 07-11 14:31 ?344次閱讀
    迅為RK3576開發(fā)板攝像頭實時推理測試-ppseg?<b class='flag-5'>圖像</b><b class='flag-5'>分割</b>

    【正點原子STM32MP257開發(fā)板試用】基于 DeepLab 模型的圖像分割

    【正點原子STM32MP257開發(fā)板試用】圖像分割 本文介紹了正點原子 STM32MP257 開發(fā)板基于 DeepLab 模型實現(xiàn)圖像分割的項目設(shè)計。 DeepLab 模型 DeepL
    發(fā)表于 06-21 21:11

    【AIBOX 應用案例】通過 U2-Net 實現(xiàn)背景移除

    設(shè)計,高效散熱,保障在高溫運行狀態(tài)下的運算性能和穩(wěn)定性,滿足各種工業(yè)級的應用需求。應用案例:背景移除BackgroundRemoval(背景移除)技術(shù)已成為圖像處理
    的頭像 發(fā)表于 06-11 16:32 ?195次閱讀
    【AIBOX 應用案例】通過 U2-Net 實現(xiàn)<b class='flag-5'>背景</b>移除

    安森美SiC Cascode JFET的背景知識和并聯(lián)設(shè)計

    )關(guān)鍵參數(shù)和并聯(lián)振蕩的分析,以及設(shè)計指南。本文為第一篇,聚焦Cascode產(chǎn)品介紹、Cascode背景知識和并聯(lián)設(shè)計。
    的頭像 發(fā)表于 02-27 14:10 ?1047次閱讀
    安森美SiC Cascode JFET的<b class='flag-5'>背景</b><b class='flag-5'>知識</b>和并聯(lián)設(shè)計

    圖像采集卡:現(xiàn)代圖像處理技術(shù)的關(guān)鍵組件

    在現(xiàn)代科技快速發(fā)展的背景下,圖像處理技術(shù)已成為信息技術(shù)領(lǐng)域不可或缺的一部分。圖像采集卡,作為連接計算機與各種圖像采集設(shè)備的重要硬件組件,扮演著至關(guān)重要的角色。它不僅涉及
    的頭像 發(fā)表于 02-20 10:42 ?490次閱讀
    <b class='flag-5'>圖像</b>采集卡:現(xiàn)代<b class='flag-5'>圖像</b>處理技術(shù)的關(guān)鍵組件

    FPGA上的圖像處理算法集成與優(yōu)化

    本文詳細介紹了多種圖像處理技術(shù),包括RG/GB單通道提取、亮度和對比度調(diào)整、圖像反轉(zhuǎn)、均值濾波、高斯濾波、圖像銳化、中值濾波、閾值分割、邊緣檢測(Sobel算子)、
    的頭像 發(fā)表于 02-14 13:46 ?660次閱讀
    FPGA上的<b class='flag-5'>圖像</b>處理算法集成與優(yōu)化

    背景抑制光電開關(guān)的設(shè)計及應用

    和目標物體特性。 ·信號采集與分析 :接收電路中的光敏元件將反射光信號轉(zhuǎn)換為電信號后,XD08M3232 單片機通過其模擬輸入接口按一定時間間隔采集這些信號,并存儲在數(shù)組或緩沖區(qū)中。然后運用背景抑制
    發(fā)表于 01-11 13:43

    淺談分割接地層的利弊

    如果分割接地層并且線路穿過分割線(如圖1所示)那么電流返回通路在哪里呢?假設(shè)兩個層在某處連接(通過在一個單獨點),則返回電流必在該大型環(huán)路內(nèi)流動。大型環(huán)路內(nèi)的高頻電流產(chǎn)生輻射和高接地電感。大型環(huán)路內(nèi)的低電平模擬電流易受干擾的影響。
    的頭像 發(fā)表于 10-30 10:09 ?608次閱讀
    淺談<b class='flag-5'>分割</b>接地層的利弊

    語義分割25種損失函數(shù)綜述和展望

    本綜述提供了對25種用于圖像分割的損失函數(shù)的全面且統(tǒng)一的回顧。我們提供了一種新穎的分類法,并詳細審查了這些損失函數(shù)如何在圖像分割中被定制和利用,強調(diào)了它們的重要特征和應用,并進行了系統(tǒng)
    的頭像 發(fā)表于 10-22 08:04 ?1622次閱讀
    語義<b class='flag-5'>分割</b>25種損失函數(shù)綜述和展望

    畫面分割器怎么調(diào)試

    畫面分割器,通常指的是視頻畫面分割器,它是一種可以將一個視頻信號分割成多個小畫面的設(shè)備。這種設(shè)備廣泛應用于監(jiān)控系統(tǒng)、視頻會議、多畫面顯示等場景。調(diào)試畫面分割器是一個技術(shù)性很強的工作,需
    的頭像 發(fā)表于 10-17 09:32 ?1083次閱讀

    畫面分割器怎么連接

    器的基本原理 畫面分割器的工作原理是通過數(shù)字信號處理技術(shù),將多個視頻信號源(如攝像頭、DVR等)的圖像數(shù)據(jù)進行處理,然后在一個監(jiān)視器上以分割的形式顯示出來。這些分割可以是1畫面、4畫面
    的頭像 發(fā)表于 10-17 09:29 ?991次閱讀

    畫面分割器有幾路主輸出

    畫面分割器,也稱為視頻分割器或多畫面處理器,是一種可以將一個視頻信號分割成多個獨立視頻畫面的設(shè)備。這種設(shè)備廣泛應用于監(jiān)控系統(tǒng)、視頻會議、多媒體展示等領(lǐng)域,能夠?qū)⒍鄠€攝像頭的信號整合到一個顯示設(shè)備上
    的頭像 發(fā)表于 10-17 09:24 ?864次閱讀

    畫面分割器的主要功能

    畫面分割器,也稱為視頻分割器或多畫面分割器,是一種用于將多個視頻信號整合到一個顯示器上顯示的設(shè)備。這種設(shè)備廣泛應用于監(jiān)控系統(tǒng)、視頻會議、指揮中心等場合,以便于用戶同時監(jiān)控多個視頻源。 畫面分割
    的頭像 發(fā)表于 10-17 09:22 ?1919次閱讀

    基于FPGA+GPU異構(gòu)平臺的遙感圖像切片解決方案

    大型遙感圖像分割圖像切片信息,以便更有效地處理和分析圖像數(shù)據(jù)。中科億海微自主研制的AI目標識別加速卡,基于FPGA+GPU異構(gòu)并行計算處理架構(gòu)設(shè)計,內(nèi)嵌深度學習
    的頭像 發(fā)表于 09-20 08:05 ?890次閱讀
    基于FPGA+GPU異構(gòu)平臺的遙感<b class='flag-5'>圖像</b>切片解決方案

    DSP教學實驗箱_數(shù)字圖像處理操作_案例分享:5-13 灰度圖像二值化

    比較的分割效果。如果物體同背景的差別表現(xiàn)不在灰度值上(比如紋理不同),可以將這個差別特征轉(zhuǎn)換為灰度的差別,然后利用閾值選取技術(shù)來分割圖像。動態(tài)調(diào)節(jié)閾值實現(xiàn)
    發(fā)表于 07-25 15:03