一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于 U-Net 的醫(yī)學(xué)影像分割算法

h1654155999.2342 ? 來源:UNknown知識(shí)庫 ? 作者:UNknown知識(shí)庫 ? 2021-08-25 17:36 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

來源:UNknown知識(shí)庫

一、醫(yī)學(xué)圖像分割簡(jiǎn)介

醫(yī)學(xué)影像分割是醫(yī)學(xué)影像分析中的重要領(lǐng)域,也是計(jì)算機(jī)輔助診斷、監(jiān)視、干預(yù)和治療所必需的一環(huán),其關(guān)鍵任務(wù)是對(duì)醫(yī)學(xué)影像中感興趣的對(duì)象(例如器官或病變)進(jìn)行分割,可以為疾病的精準(zhǔn)識(shí)別、詳細(xì)分析、合理診斷、預(yù)測(cè)與預(yù)防等方面提供非常重要的意義和價(jià)值。

在醫(yī)學(xué)影像分割任務(wù)中,目前主要存在以下幾個(gè)難點(diǎn):

標(biāo)注數(shù)據(jù)少。造成該問題的一個(gè)重要的原因是收集標(biāo)注困難,手工標(biāo)注醫(yī)學(xué)影像是一個(gè)費(fèi)時(shí)費(fèi)力的過程,而這個(gè)標(biāo)注過程在實(shí)際的臨床實(shí)踐中可能并不需要。

傳感器噪聲或偽影?,F(xiàn)代醫(yī)學(xué)影像最基本的成像模態(tài)有 X 光、超聲、CT 和 MRI 等,用于成像的醫(yī)學(xué)設(shè)備會(huì)存在物理噪聲和圖像重建誤差,而醫(yī)學(xué)影像模態(tài)和成像參數(shù)設(shè)定的差別則會(huì)造成不同大小的偽影。

分割目標(biāo)形態(tài)差異大?;颊咧g存在高矮胖瘦等體型差異,且病變的大小、形狀和位置可能存在巨大差異,因此解剖結(jié)構(gòu)上會(huì)有差異。不同的分割部位也存在差異,往往需要不同的算法,有時(shí)還需要考慮到先驗(yàn)知識(shí)的加入。

組織邊界信息弱。人體內(nèi)部的一些器官都是具有相似特征的軟組織,它們相互接觸且邊界信息非常弱,而胰腺腫瘤、肝腫瘤、腎臟腫瘤等邊界不清楚的腫瘤往往還非常小,導(dǎo)致很難被識(shí)別到。

二、基于 U-Net 的醫(yī)學(xué)影像分割算法

1

U-Net

U-Net 是醫(yī)學(xué)影像分割領(lǐng)域著名的一個(gè)網(wǎng)絡(luò)架構(gòu),在 2015 年由 Ronneberger等人參加 ISBI Challenge 提出的一種基于 FCN 的分割網(wǎng)絡(luò)。經(jīng)過修改和擴(kuò)展后的 U-Net 能夠適應(yīng)很小的訓(xùn)練集,并且輸出更加精確的分割結(jié)果。

U-Net 的上采樣過程中依然有大量通道,這使得網(wǎng)絡(luò)將上下文信息向更高分辨率傳播,且其擴(kuò)展路徑與收縮路徑對(duì)稱,形成了一個(gè) U 型的形狀段,并通過跳躍連接的方式融合來自不同階段的特征圖。

當(dāng)面對(duì)醫(yī)學(xué)影像分割任務(wù)時(shí),U-Net 這種擴(kuò)展路徑和收縮路徑所組成的編碼—解碼的網(wǎng)絡(luò)架構(gòu)成為了首選,同時(shí)發(fā)展出很多變體。

2

加入密集連接的 U-Net 算法

密集連接的思想來自于 DenseNet,在 DenseNet 出現(xiàn)之前,卷積神經(jīng)網(wǎng)絡(luò)的進(jìn)化一般通過層數(shù)的加深或者加寬進(jìn)行,DenseNet 通過對(duì)特征的復(fù)用提出了一種新的結(jié)構(gòu),不但減緩了梯度消失的現(xiàn)象同時(shí)模型的參數(shù)量也更少。

U-Net++ 網(wǎng)絡(luò)架構(gòu)在 2018 年被 Zhou 等人提出,創(chuàng)新點(diǎn)在于將密集連接加入 U-Net 網(wǎng)絡(luò),從而引入深度監(jiān)督的思想,并通過重新設(shè)計(jì)的跳躍連接路徑把不同尺寸的U-Net 結(jié)構(gòu)融入到了一個(gè)網(wǎng)絡(luò)里。

在原始的U-Net網(wǎng)絡(luò)架構(gòu)上,UNet++ 加入了更多的跳躍連接路徑和上采樣卷積塊,用于彌補(bǔ)編碼器和解碼器之間的語義鴻溝。中間隱藏層使用的深度監(jiān)督一方面可以解決 U-Net++ 網(wǎng)絡(luò)訓(xùn)練時(shí)的梯度消失問題,另一方面允許網(wǎng)絡(luò)在測(cè)試的階段進(jìn)行剪枝,減少模型的推斷時(shí)間。

U-Net++ 網(wǎng)絡(luò)架構(gòu)的第一個(gè)優(yōu)勢(shì)就是精度的提升,這是由于它整合了不同層次的特征,第二個(gè)是靈活的網(wǎng)絡(luò)結(jié)構(gòu)配合深度監(jiān)督,讓參數(shù)量巨大的深度神經(jīng)網(wǎng)絡(luò)在可接受的精度范圍內(nèi)大幅度地縮減參數(shù)量。

但是因?yàn)槎啻翁S連接操作,同樣的數(shù)據(jù)在網(wǎng)絡(luò)中會(huì)存在多個(gè)復(fù)制,模型訓(xùn)練時(shí)的顯存占用相對(duì)較高,需要采用一些顯存優(yōu)化技術(shù)來更好地訓(xùn)練模型。

3

融合殘差思想的 U-Net 算法

神經(jīng)網(wǎng)絡(luò)因?yàn)閷挾群蜕疃鹊脑黾?,?huì)面臨梯度消失或梯度爆炸引起的網(wǎng)絡(luò)退化問題,為此 He 等人提出了殘差網(wǎng)絡(luò)(ResNet)。殘差塊的輸入通過殘差路徑直接疊加到殘差塊的輸出之中,殘差塊會(huì)嘗試去學(xué)習(xí)并擬合殘差以保證增加的網(wǎng)絡(luò)層數(shù)不會(huì)削弱網(wǎng)絡(luò)的表達(dá)性能。

2019年 Ibtehaz 等人提出了 MultiResUNet 網(wǎng)絡(luò),MultiResUNet 運(yùn)用殘差思想改造了 U-Net 中的卷積塊和跳躍連接。MultiResNet 使用一系列 3×3 卷積核來模擬 5×5 卷積核和 7×7 卷積核的感受野,卷積塊的輸入經(jīng)過 1×1 卷積核后經(jīng)由殘差路徑直接與卷積后的輸入疊加,作者稱之為 MultiResblock,在減少網(wǎng)絡(luò)計(jì)算量的同時(shí)可以提取不同尺度的空間特征。

作者同時(shí)提出了 ResPath 來減少跳躍連接過程中所丟失的空間信息,ResPath 由一系列的 3×3 卷積、1×1卷積和殘差路徑組成,編碼器的輸入特征圖經(jīng)過 ResPath 與解碼器特征圖連接,一方面減少了語義鴻溝,另一方面增強(qiáng)了網(wǎng)絡(luò)的學(xué)習(xí)能力。

4集成注意力機(jī)制的 U-Net 算法

注意力機(jī)制借鑒了人類的注意力思維方式,最初被應(yīng)用于基于 RNN 循環(huán)神經(jīng)網(wǎng)絡(luò)模型的圖像分類、自然語言處理等深度學(xué)習(xí)任務(wù)中并取得了顯著成果。2018年 Oktay 等人提出了 Attention U-Net 網(wǎng)絡(luò)架構(gòu)。

AttentionU-Net 在對(duì)擴(kuò)展路徑每個(gè)階段上的特征圖與收縮路徑中對(duì)應(yīng)特征圖進(jìn)行拼接之前,使用了一個(gè)注意力門抑制無關(guān)區(qū)域中的特征激活來提高模型的分割準(zhǔn)確性,在達(dá)到高分割精度的同時(shí)而無需額外的定位模塊。

與 U-Net 和相比,AttentionU-Net 在胰腺和腹部多器官分割數(shù)據(jù)集上,提升了分割的精度,同時(shí)減少了模型訓(xùn)練和推理的時(shí)間。

5

面向 3D 影像的 U-Net 算法

3D U-Net 網(wǎng)絡(luò)架構(gòu)是原始 U-Net 網(wǎng)絡(luò)架構(gòu)的一個(gè)簡(jiǎn)單擴(kuò)展,由 U-Net 的研究團(tuán)隊(duì)在 2016 年提出并應(yīng)用于三維圖像分割。因?yàn)?a target="_blank">電腦屏幕上只能展示二維的切片,所以直接在三維層面上標(biāo)注分割標(biāo)簽比較困難。與此同時(shí),相鄰的二維切片往往包含了近似的圖片信息。

基于上述兩個(gè)事實(shí),作者提出了只需要稀疏標(biāo)注的二維圖像進(jìn)行訓(xùn)練的 3D U-Net 網(wǎng)絡(luò)架構(gòu)。3D U-Net 通過將 U-Net 原來的 2D 卷積、池化、上采樣操作替換成對(duì)應(yīng)的 3D 操作,并加入 Batch Normalization 層實(shí)現(xiàn)了對(duì)三維醫(yī)學(xué)影像的直接分割。

2016年 Milletari 等人提出了 V-Net 網(wǎng)絡(luò)架構(gòu),是原始 U-Net 網(wǎng)絡(luò)架構(gòu)的另一種 3D 實(shí)現(xiàn)。V-Net 相比 3D U-Net 最大的亮點(diǎn)在于吸收了 ResNet 的思想,在網(wǎng)絡(luò)拓展路徑和收縮路徑的每個(gè)階段中都引入殘差學(xué)習(xí)的機(jī)制。同時(shí),V-Net 以步長為 2 的 2×2×2 卷積核取代拓展路徑里的池化操作來降低特征圖的分辨率。

V-Net 和 3D U-Net 都是針對(duì)三維醫(yī)學(xué)影像所直接構(gòu)建的端到端的深度卷積神經(jīng)網(wǎng)絡(luò),目的是運(yùn)用 3D 卷積從三維進(jìn)行編碼,以良好的分割某些在二維沒有明顯表征的病理。3D分割算法在利用醫(yī)學(xué)影像的三維組織連通性方面具有優(yōu)勢(shì),但相較2D分割算法其參數(shù)量更多,訓(xùn)練和推理過程對(duì)設(shè)備的算力要求更高。

參考資料:彭璟,羅浩宇,趙淦森等《深度學(xué)習(xí)下的醫(yī)學(xué)影像分割算法綜述》

—版權(quán)聲明—

僅用于學(xué)術(shù)分享,版權(quán)屬于原作者。

若有侵權(quán),請(qǐng)聯(lián)系刪除或修改!

編輯:jq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 網(wǎng)絡(luò)架構(gòu)

    關(guān)注

    1

    文章

    96

    瀏覽量

    12919
  • 深度
    +關(guān)注

    關(guān)注

    0

    文章

    12

    瀏覽量

    8935
  • 卷積神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    4

    文章

    369

    瀏覽量

    12307
  • rnn
    rnn
    +關(guān)注

    關(guān)注

    0

    文章

    89

    瀏覽量

    7114

原文標(biāo)題:基于 U-Net 的醫(yī)學(xué)影像分割算法綜述

文章出處:【微信號(hào):gh_f39db674fbfd,微信公眾號(hào):尖刀視】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    【正點(diǎn)原子STM32MP257開發(fā)板試用】基于 DeepLab 模型的圖像分割

    :https://arxiv.org/pdf/1706.05587 應(yīng)用場(chǎng)景 自動(dòng)駕駛:用于道路、車輛、行人等目標(biāo)的精確分割醫(yī)學(xué)影像分析:用于腫瘤、器官等區(qū)域的分割。 衛(wèi)星圖像分析:用于土地覆蓋、建筑物
    發(fā)表于 06-21 21:11

    東軟集團(tuán)入選國家數(shù)據(jù)局?jǐn)?shù)據(jù)標(biāo)注優(yōu)秀案例

    近日,東軟飛標(biāo)醫(yī)學(xué)影像標(biāo)注平臺(tái)在國家數(shù)據(jù)局發(fā)布數(shù)據(jù)標(biāo)注優(yōu)秀案例集名單中排名第一(案例名稱“多模態(tài)醫(yī)學(xué)影像智能數(shù)據(jù)標(biāo)注平臺(tái)”)。評(píng)選專家認(rèn)為東軟案例取得了顯著成效,一方面,搶占了自主可控的數(shù)據(jù)標(biāo)注技術(shù)
    的頭像 發(fā)表于 05-09 14:37 ?477次閱讀

    RK3576 yolov11-seg訓(xùn)練部署教程

    級(jí)的精確目標(biāo)檢測(cè)與分割,適用于自動(dòng)駕駛、醫(yī)學(xué)影像、工業(yè)檢測(cè)等對(duì)精度和速度要求苛刻的場(chǎng)景。 ? ? ? ?本教程針對(duì)目標(biāo)分割算法yolov11 seg的訓(xùn)練和部署到EASY-EAI-O
    的頭像 發(fā)表于 04-16 09:43 ?777次閱讀
    RK3576 yolov11-seg訓(xùn)練部署教程

    醫(yī)療設(shè)備工業(yè)成像采集卡:提升醫(yī)療影像診斷水平的關(guān)鍵組件

    依據(jù)。隨著醫(yī)學(xué)影像技術(shù)的不斷進(jìn)步,例如計(jì)算機(jī)斷層掃描(CT)、磁共振成像(MRI)、超聲成像(Ultrasound)以及內(nèi)窺鏡成像等,對(duì)成像采集卡的性能要求也越來越
    的頭像 發(fā)表于 03-19 15:55 ?316次閱讀
    醫(yī)療設(shè)備工業(yè)成像采集卡:提升醫(yī)療<b class='flag-5'>影像</b>診斷水平的關(guān)鍵組件

    中信建投報(bào)告泄密,AI硬件正在重塑醫(yī)療影像與IVD領(lǐng)域的未來

    《2025醫(yī)療科技趨勢(shì)報(bào)告》中預(yù)判的剛性需求。報(bào)告還指出,至2025年,醫(yī)學(xué)影像與體外診斷(IVD)領(lǐng)域?qū)⒂瓉鞟I應(yīng)用的深化期,其中AI硬件則會(huì)是推動(dòng)這一變革的關(guān)鍵
    的頭像 發(fā)表于 02-25 18:03 ?437次閱讀
    中信建投報(bào)告泄密,AI硬件正在重塑醫(yī)療<b class='flag-5'>影像</b>與IVD領(lǐng)域的未來

    三維測(cè)量在醫(yī)療領(lǐng)域的應(yīng)用

    三維測(cè)量在醫(yī)療領(lǐng)域的應(yīng)用十分廣泛,為醫(yī)療診斷、治療及手術(shù)規(guī)劃等提供了重要的技術(shù)支持。以下是對(duì)三維測(cè)量在醫(yī)療領(lǐng)域應(yīng)用的分析: 一、醫(yī)學(xué)影像的三維重建與分析 CT、MRI等影像的三維重建 : 三維測(cè)量
    的頭像 發(fā)表于 12-30 15:21 ?679次閱讀

    英特爾助力東軟PACS&amp;RIS賦能三維可視化與AI輔助診斷

    行軟件優(yōu)化,我們有效了提升了系統(tǒng)性能,在此基礎(chǔ)上,我們將以一體化、智能化、??苹癁槔砟睿訮ACS/RIS產(chǎn)品能力為核心向外延伸,構(gòu)建智慧醫(yī)學(xué)影像解決方案?!?概 述 醫(yī)學(xué)影像不僅是臨床診斷的重要依據(jù)、醫(yī)學(xué)決策的重要指導(dǎo),同時(shí)也
    的頭像 發(fā)表于 12-07 10:45 ?1045次閱讀
    英特爾助力東軟PACS&amp;RIS賦能三維可視化與AI輔助診斷

    東軟發(fā)布新一代醫(yī)學(xué)影像解決方案

    近日,東軟全新發(fā)布新一代醫(yī)學(xué)影像解決方案,以智能化為核心,以數(shù)據(jù)引擎為驅(qū)動(dòng),面向未來醫(yī)學(xué)影像行業(yè)的發(fā)展需求,全新定義醫(yī)學(xué)影像的產(chǎn)品價(jià)值,推動(dòng)醫(yī)學(xué)影像信息化的全面升級(jí)與一體化融合。這是東
    的頭像 發(fā)表于 11-25 09:32 ?568次閱讀

    東軟醫(yī)療光子計(jì)數(shù)CT獲得革命性突破

    近日,由東軟集團(tuán)旗下的創(chuàng)新公司東軟醫(yī)療自主研發(fā)的國產(chǎn)光子計(jì)數(shù)CT獲得革命性突破,首幅人體影像成功出圖!這不僅是東軟醫(yī)療自主創(chuàng)新的再次突破,更是中國在超高端醫(yī)學(xué)影像設(shè)備領(lǐng)域具有里程碑意義的重大突破!
    的頭像 發(fā)表于 11-06 14:25 ?1160次閱讀

    U盤存儲(chǔ)并聯(lián),算法交互輸出

    U盤存儲(chǔ)并聯(lián),算法交互輸出 多個(gè)U盤并聯(lián)存儲(chǔ)數(shù)據(jù),并通過算法交互輸出結(jié)果。以下是一個(gè)詳細(xì)的設(shè)計(jì)方案: 一、系統(tǒng)架構(gòu) 硬件部分: U盤模塊:
    發(fā)表于 10-28 07:36

    語義分割25種損失函數(shù)綜述和展望

    語義圖像分割,即將圖像中的每個(gè)像素分類到特定的類別中,是許多視覺理解系統(tǒng)中的重要組成部分。作為評(píng)估統(tǒng)計(jì)模型性能的主要標(biāo)準(zhǔn),損失函數(shù)對(duì)于塑造基于深度學(xué)習(xí)的分割算法的發(fā)
    的頭像 發(fā)表于 10-22 08:04 ?1622次閱讀
    語義<b class='flag-5'>分割</b>25種損失函數(shù)綜述和展望

    Dell PowerScale數(shù)據(jù)湖助力醫(yī)研一體化建設(shè)

    近年來,醫(yī)療影像設(shè)備不斷向更高水平和精密化發(fā)展,推動(dòng)醫(yī)療服務(wù)向更高更快的品質(zhì)發(fā)展?;?b class='flag-5'>醫(yī)學(xué)影像多學(xué)科會(huì)診的協(xié)作、智能輔助診斷、智能質(zhì)控、智能術(shù)前規(guī)劃,將快速推進(jìn)各項(xiàng)醫(yī)學(xué)科研成果進(jìn)行規(guī)范化的臨床應(yīng)用與轉(zhuǎn)化。
    的頭像 發(fā)表于 10-16 10:13 ?680次閱讀

    三維可視化技術(shù)的應(yīng)用現(xiàn)狀和發(fā)展前景

    工程項(xiàng)目的效率與質(zhì)量。 醫(yī)學(xué)影像 醫(yī)學(xué)領(lǐng)域利用三維可視化技術(shù)進(jìn)行醫(yī)學(xué)影像診斷、手術(shù)規(guī)劃和教育培訓(xùn)。醫(yī)生可以利用三維重建圖像來更好地了解患者病情,規(guī)劃手術(shù)路徑,甚至進(jìn)行虛擬手術(shù)模擬,提升治療效果與安全性。 虛擬現(xiàn)實(shí)與游
    的頭像 發(fā)表于 09-30 17:57 ?789次閱讀

    三維可視化技術(shù)主要領(lǐng)域及其具體運(yùn)用

    運(yùn)用: 1. 醫(yī)學(xué)領(lǐng)域 醫(yī)學(xué)影像處理: 三維可視化 技術(shù)可以將CT、MRI等醫(yī)學(xué)影像數(shù)據(jù)轉(zhuǎn)化為三維模型,幫助醫(yī)生更直觀地觀察和分析患者的病情。醫(yī)生可以通過旋轉(zhuǎn)、放大等操作,更清晰地了解病變區(qū)域的結(jié)構(gòu)和位置,提高診斷的準(zhǔn)確
    的頭像 發(fā)表于 09-11 16:40 ?925次閱讀

    UNet模型屬于哪種神經(jīng)網(wǎng)絡(luò)

    U-Net模型屬于卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)的一種特殊形式 。它最初由德國弗萊堡大學(xué)計(jì)算機(jī)科學(xué)系的研究人員在2015年提出,專為生物醫(yī)學(xué)圖像
    的頭像 發(fā)表于 07-24 10:59 ?5561次閱讀