一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于卷積多層感知器(MLP)的圖像分割網(wǎng)絡(luò)unext

lhl545545 ? 來源:CVer ? 作者:CVer ? 2022-09-27 15:12 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

1. 摘要

UNet及其最新的擴展如TransUNet是近年來領(lǐng)先的醫(yī)學(xué)圖像分割方法。然而,由于這些網(wǎng)絡(luò)參數(shù)多、計算復(fù)雜、使用速度慢,因此不能有效地用于即時應(yīng)用中的快速圖像分割。為此,我們提出了一種基于卷積多層感知器(MLP)的圖像分割網(wǎng)絡(luò)unext。我們設(shè)計了一種有效的UNeXt方法,即在前期采用卷積階段和在后期采用MLP階段。我們提出了一個標(biāo)記化的MLP塊,在該塊中,我們有效地標(biāo)記和投射卷積特征,并使用MLP來建模表示。

為了進一步提高性能,我們建議在輸入mlp時shift輸入的channel,以便專注于學(xué)習(xí)局部依賴性。在潛在空間中使用標(biāo)記化的mlp減少了參數(shù)的數(shù)量和計算復(fù)雜度,同時能夠產(chǎn)生更好的表示,以幫助分割。該網(wǎng)絡(luò)還包括各級編碼器和解碼器之間的跳躍連接。測試結(jié)果表明,與目前最先進的醫(yī)學(xué)圖像分割架構(gòu)相比,UNeXt的參數(shù)數(shù)量減少了72x,計算復(fù)雜度降低了68x,推理速度提高了10x,同時也獲得了更好的分割性能。

2. 網(wǎng)絡(luò)結(jié)構(gòu)

2.1 網(wǎng)絡(luò)設(shè)計:

UNeXt是一個編碼器-解碼器體系結(jié)構(gòu),有兩個階段:

1) 卷積階段

2) tokenized MLP階段。

輸入圖像通過編碼器,其中前3個塊是卷積,下2個是tokenized MLP塊。解碼器有2個tokenized MLP塊,后面跟著3個卷積塊。每個編碼器塊減少特征分辨率2倍,每個解碼器塊增加特征分辨率2。跳躍連接也被應(yīng)用在了編碼器和解碼器之間

a82f13d8-3e2d-11ed-9e49-dac502259ad0.png

作者減少了每個stage的通道數(shù)。

每個stage的通道數(shù),對比標(biāo)準(zhǔn)的Unet:

UNeXt:32 64 128 160 256

UNet:64 128 256 512 1024

在這里面就減少了很多的參數(shù)量

2.2 卷積階段

有三個conv block,每個block都有一個卷積層(傳統(tǒng)Unet是兩個)、批量歸一化層和ReLU激活。我們使用的內(nèi)核大小為3×3, stride為1,padding為1。編碼器的conv塊使用帶有池窗口2×2的max-pooling層,而解碼器的conv塊使用雙線性插值層對特征圖進行上采樣。我們使用雙線性插值而不是轉(zhuǎn)置卷積,因為轉(zhuǎn)置卷積基本上是可學(xué)習(xí)的上采樣,會導(dǎo)致產(chǎn)生更多可學(xué)習(xí)的參數(shù)

2.3 Shifted MLP

在shifted MLP中,在tokenize之前,我們首先移動conv features通道的軸線。這有助于MLP只關(guān)注conv特征的某些位置,從而誘導(dǎo)塊的位置。這里的直覺與Swin transformer類似,在swin中引入基于窗口的注意,以向完全全局的模型添加更多的局域性。由于Tokenized MLP塊有2個mlp,我們在一個塊中跨越寬度移動特征,在另一個塊中跨越高度移動特征,就像軸向注意力中一樣。我們對這些特征做了h個劃分,并根據(jù)指定的軸通過j個位置移動它們。這有助于我們創(chuàng)建隨機窗口,引入沿軸線的局部性。

a844412c-3e2d-11ed-9e49-dac502259ad0.jpgShift操作

圖中灰色是特征塊的位置,白色是移動之后的padding。

2.4 Tokenized MLP階段

a84ccf7c-3e2d-11ed-9e49-dac502259ad0.jpgimage-20220402001733482

在Tokenized MLP塊中,我們首先shift features并將它們投射到token中。為了進行token化,我們首先使用3x3conv把特征投射到E維,其中E是embadding維度(token的數(shù)量),它是一個超參數(shù)。然后我們將這些token傳遞給一個shifted MLP(跨越width)。接下來,特征通過 DW-Conv傳遞。然后我們使用GELU激活層。然后,我們通過另一個shifted MLP(跨越height)傳遞特征,該mlp把特征的尺寸從H轉(zhuǎn)換為了O。我們在這里使用一個殘差連接,并將原始標(biāo)記添加為殘差。然后我們利用layer norm(LN),并將輸出特征傳遞到下一個塊。LN比BN更可取,因為它更有意義的是沿著token進行規(guī)范化,而不是在Tokenized MLP塊的整個批處理中進行規(guī)范化。

我們在這個塊中使用DWConv有兩個原因:

1)它有助于編碼MLP特征的位置信息。從中可以看出,在一個MLP塊中Conv層已經(jīng)足夠?qū)ξ恢眯畔⑦M行編碼,并且實際性能優(yōu)于標(biāo)準(zhǔn)的位置編碼技術(shù)。當(dāng)測試或者訓(xùn)練分辨率不相同時,像ViT中的位置編碼技術(shù)需要插值,這通常會導(dǎo)致性能下降。

2)DWConv使用更少的參數(shù),因此提高了效率。

Tokenized block的計算流程

a8691240-3e2d-11ed-9e49-dac502259ad0.png

所有這些計算都是在嵌入維數(shù)h上執(zhí)行的,這個維數(shù)明顯小于特征的維數(shù) (H/N)×(H/N) ,N是關(guān)于降維的2的因子。在我們的實驗中,除非另有說明,否則我們使用768。這種設(shè)計tokenized MLP block的方法有助于編碼有意義的特征信息,而不會對計算或參數(shù)貢獻太多。

3.實驗結(jié)果

在ISIC和BUSI數(shù)據(jù)集進行了實驗

a893c472-3e2d-11ed-9e49-dac502259ad0.png

在ISIC數(shù)據(jù)集的對比

a8ba4e80-3e2d-11ed-9e49-dac502259ad0.png

a8cea394-3e2d-11ed-9e49-dac502259ad0.png

a8eecce6-3e2d-11ed-9e49-dac502259ad0.png

4. 個人感悟

首先每個convolutional階段只有一個卷積層,極大的減少了運算量,是答主第一次見了。

其次是把MLP的模塊引入了Unet,算是很新穎了。

在Tokenized MLP block中使用DW- CONV,讓人眼前一亮。

審核編輯:彭靜
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 解碼器
    +關(guān)注

    關(guān)注

    9

    文章

    1165

    瀏覽量

    41825
  • 圖像分割
    +關(guān)注

    關(guān)注

    4

    文章

    182

    瀏覽量

    18293
  • 感知器
    +關(guān)注

    關(guān)注

    0

    文章

    34

    瀏覽量

    11978
  • MLP
    MLP
    +關(guān)注

    關(guān)注

    0

    文章

    57

    瀏覽量

    4530

原文標(biāo)題:MICCAI 2022 | UNeXt:第一個基于卷積和MLP的快速醫(yī)學(xué)圖像分割網(wǎng)絡(luò)

文章出處:【微信號:CVer,微信公眾號:CVer】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    使用全卷積網(wǎng)絡(luò)模型實現(xiàn)圖像分割

    OpenCv-C++-深度神經(jīng)網(wǎng)絡(luò)(DNN)模塊-使用FCN模型實現(xiàn)圖像分割
    發(fā)表于 05-28 07:33

    如何使用Keras框架搭建一個小型的神經(jīng)網(wǎng)絡(luò)多層感知器

    本文介紹了如何使用Keras框架,搭建一個小型的神經(jīng)網(wǎng)絡(luò)-多層感知器,并通過給定數(shù)據(jù)進行計算訓(xùn)練,最好將訓(xùn)練得到的模型提取出參數(shù),放在51單片機上進行運行。
    發(fā)表于 11-22 07:00

    基于MLP的快速醫(yī)學(xué)圖像分割網(wǎng)絡(luò)UNeXt相關(guān)資料分享

    緩慢。這篇文章提出了基于卷積多層感知器MLP)改進 U型架構(gòu)的方法,可以用于圖像分割。設(shè)計了一
    發(fā)表于 09-23 14:53

    一文詳解CNN

    識別、語音識別等場景取得巨大的成功。 CNN的發(fā)展史: 提到CNN的發(fā)展史,就要提到多層感知器(Multi-Layer Perception, MLP)。(圖片來源于3Blue1Brown)
    發(fā)表于 08-18 06:56

    人工神經(jīng)網(wǎng)絡(luò)在金相圖像分割中的應(yīng)用研究

    摘要: 利用多層感知器神經(jīng)網(wǎng)絡(luò)和自組織映射神經(jīng)網(wǎng)絡(luò)對球墨鑄鐵、可鍛鑄鐵和灰鑄鐵的金相圖像進行了分割
    發(fā)表于 03-12 16:27 ?25次下載
    人工神經(jīng)<b class='flag-5'>網(wǎng)絡(luò)</b>在金相<b class='flag-5'>圖像</b><b class='flag-5'>分割</b>中的應(yīng)用研究

    人工智能–多層感知器基礎(chǔ)知識解讀

    感知器(Perceptron)是ANN人工神經(jīng)網(wǎng)絡(luò)的一個概念,由Frank Rosenblatt于1950s第一次引入。 MLP多層感知器
    發(fā)表于 07-05 14:45 ?6318次閱讀

    聚焦語義分割任務(wù),如何用卷積神經(jīng)網(wǎng)絡(luò)處理語義圖像分割

    同一對象。作者將沿著該領(lǐng)域的研究脈絡(luò),說明如何用卷積神經(jīng)網(wǎng)絡(luò)處理語義圖像分割的任務(wù)。 更具體地講,語義圖像
    發(fā)表于 09-17 15:21 ?661次閱讀

    卷積網(wǎng)絡(luò)FCN進行圖像分割

    Networks for Semantic Segmentation》在圖像語義分割挖了一個坑,于是無窮無盡的人往坑里面跳。 全卷積網(wǎng)絡(luò) Fully Convolutional Ne
    發(fā)表于 09-26 17:22 ?752次閱讀

    多層感知機(MLP)的設(shè)計與實現(xiàn)

    多層感知機(Multilayer Perceptron)縮寫為MLP,也稱作前饋神經(jīng)網(wǎng)絡(luò)(Feedforward Neural Network)。它是一種基于神經(jīng)
    的頭像 發(fā)表于 03-14 11:31 ?7988次閱讀
    <b class='flag-5'>多層</b><b class='flag-5'>感知</b>機(<b class='flag-5'>MLP</b>)的設(shè)計與實現(xiàn)

    PyTorch教程5.2之多層感知器的實現(xiàn)

    電子發(fā)燒友網(wǎng)站提供《PyTorch教程5.2之多層感知器的實現(xiàn).pdf》資料免費下載
    發(fā)表于 06-05 15:32 ?0次下載
    PyTorch教程5.2之<b class='flag-5'>多層</b><b class='flag-5'>感知器</b>的實現(xiàn)

    使用多層感知器進行機器學(xué)習(xí)

    我們將使用一個極其復(fù)雜的微處理來實現(xiàn)一個神經(jīng)網(wǎng)絡(luò),該神經(jīng)網(wǎng)絡(luò)可以完成與由少數(shù)晶體管組成的電路相同的事情,這個想法有些幽默。但與此同時,以這種方式思考這個問題強調(diào)了單層感知器作為一般分
    的頭像 發(fā)表于 06-24 11:17 ?790次閱讀
    使用<b class='flag-5'>多層</b><b class='flag-5'>感知器</b>進行機器學(xué)習(xí)

    卷積神經(jīng)網(wǎng)絡(luò)算法有哪些?

    卷積神經(jīng)網(wǎng)絡(luò)算法有哪些?? 卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN) 是一種基于多層
    的頭像 發(fā)表于 08-21 16:50 ?1998次閱讀

    深度神經(jīng)網(wǎng)絡(luò)模型有哪些

    模型: 多層感知器(Multilayer Perceptron,MLP): 多層感知器是最基本的深度神經(jīng)
    的頭像 發(fā)表于 07-02 10:00 ?2385次閱讀

    多層感知器、全連接網(wǎng)絡(luò)和深度神經(jīng)網(wǎng)絡(luò)介紹

    多層感知器MLP)、全連接網(wǎng)絡(luò)(FCN)和深度神經(jīng)網(wǎng)絡(luò)(DNN)在神經(jīng)網(wǎng)絡(luò)領(lǐng)域中扮演著重要角色
    的頭像 發(fā)表于 07-11 17:25 ?8127次閱讀

    多層感知器的基本原理

    多層感知器MLP, Multi-Layer Perceptron)是一種前饋神經(jīng)網(wǎng)絡(luò),它通過引入一個或多個隱藏層來擴展單層感知器的功能,從
    的頭像 發(fā)表于 07-19 17:20 ?1538次閱讀