91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

3D UX-Net:超強的醫(yī)學圖像分割新網(wǎng)絡

CVer ? 來源:CVHub ? 2023-02-01 15:57 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

2a2a3e3c-a187-11ed-bfe3-dac502259ad0.png

Title: 3D UX-Net: a Large Kernel Volumetric ConvNet Modernizing Hierarchical Transformer for Medical Image Segmentation

Author: Ho Hin Lee et al. (范德堡大學)

Paper: https://arxiv.org/abs/2209.15076

Github: https://github.com/MASILab/3DUX-Net

引言

眾所周知,大多數(shù)醫(yī)學圖像如 MRI 和 CT 是屬于 volumetric data 類型。因此,為了更加充分的利用體素信息,近幾年已經(jīng)提出了不少 3D CNNs 的模型,如 SwinUNETRUNETR以及筆者前段時間分享過的UNETR++等。

整體來說,這些模型性能是越來越高,在幾個主流的 3D 數(shù)據(jù)基準測試中也實現(xiàn)了大大小小的 SOTA,特別是 3D 醫(yī)學圖像分割這塊。當然,時代在進步,作為一名高科技前沿從業(yè)者本身也是需要不斷汲取新的知識營養(yǎng)才能不被輕易的淘汰。今天小編就帶大家解讀下 ICLR 2023 新鮮出爐的 3D 醫(yī)學圖像分割之星——3D UX-Net。

3D UXNet 是一種輕量級3D卷積神經(jīng)網(wǎng)絡,其使用 ConvNet 模塊調(diào)整分層 Transformer 以實現(xiàn)穩(wěn)健的體素分割,在三個具有挑戰(zhàn)性的腦體積和腹部成像公共數(shù)據(jù)集與當前的 SOTA 模型如 SwinUNETR 對比,同時在以下三大主流數(shù)據(jù)集性能均達到了最優(yōu):

  • MICCAI Challenge 2021 FLARE
  • MICCAI Challenge 2021 FeTA
  • MICCAI Challenge 2022 AMOS

具體的,相比于 SwinUNETR,3D UX-Net 將 Dice 從 0.929 提高到 0.938 (FLARE2021),Dice 從 0.867 提高到 0.874 (Feta2021)。此外,為了進一步評估 3D UX-Net 的遷移學習能力,作者在 AMOS2022 數(shù)據(jù)集上訓練得到的模型在另一個數(shù)據(jù)集上取得了 2.27% Dice 的提升(0.880 → 0.900)。

動機

先來看看最近提出的一眾基于 Transformer 架構(gòu)的 ViT 模型有什么優(yōu)劣勢。以 SwinUNETR 為例,其將 ConvNet 的一些先驗引入到了 Swin Transformer 分層架構(gòu)中,進一步增強了在 3D 醫(yī)學數(shù)據(jù)集中調(diào)整體素分割的實際可行性。此類 "Conv+Transforemr" 的組合拳的有效性在很大程度上歸功于以下兩個因素:

  • 非局部自注意力所帶來的大感受野
  • 大量的模型參數(shù)

為此,本文作者想到了應用深度卷積以更少的模型參數(shù)來模擬這些方法讓網(wǎng)絡學會如何捕獲更大感受野的行為。這一點筆者在前文《關于語義分割的億點思考》中也提過,文中對整個任務進行了深度剖析,有興趣的讀者可以自行翻閱公眾號歷史文章:

語義分割任務的核心思想是如何高效建模上下文信息,它是提升語義分割性能最為重要的因素之一,而有效感受野則大致決定了網(wǎng)絡能夠利用到多少上下文信息。

回到正文,本文的設計思路主要是受 ConvNeXt 啟發(fā),還沒了解過的同學也可自行移動到公眾號翻閱歷史文章,筆者之前對該系列也講解過了,此處不再詳述。3D UX-Net 核心理念是設計出一種簡單、高效和輕量化的 網(wǎng)絡,其適用于 hierarchical transformers 的能力同時保留使用 ConvNet 模塊的優(yōu)勢,如歸納偏置。具體地,其編碼器模塊設計的基本思想可分為: 1) block-wise(微觀層面) 及 2) layer-wise(宏觀層面)【可以類比下 ConvNeXt】。

block-wise

首先,我們先從下列三個不同的視角進行討論。

Patch-wise Features Projection

對比 ConvNets 和 ViTs 之間的相似性,兩個網(wǎng)絡都使用一個共同的基礎模塊將特征表示縮小到特定的尺寸。以往的方法大都沒有將圖像塊展平為具有線性層的順序輸入,因此作者采用具備大卷積核的投影層來提取 patch-wise 特征作為編碼器的輸入。

Volumetric Depth-wise Convolution with LKs

Swin transformer 的內(nèi)在特性之一是用于計算非局部 MSA 的滑動窗口策略??偟膩碚f,有兩種分層方法來計算 MSA:基于窗口的 MSA (W-MSA) 和 移動窗口 MSA (SW-MSA)。這兩種方式都生成了跨層的全局感受野,并進一步細化了非重疊窗口之間的特征對應關系。

受深度卷積思想的啟發(fā),作者發(fā)現(xiàn)自注意力中的加權和方法與每通道卷積基礎之間的相似之處,其認為使用 LK 大小的深度卷積可以在提取類似于 MSA 塊的特征時提供大的感受野。因此,本文建議采用 LK 大?。ɡ?,從 7 × 7 × 7 開始)通過深度卷積壓縮 Swin transformer 的窗口移動特性。如此一來便可以保證每個卷積核通道與相應的輸入通道進行卷積運算,使得輸出特征與輸入具備相同的通道維度。

Inverted Bottleneck with Depthwise Convolutional Scaling

Swin transformer 的另一個固有結(jié)構(gòu)是,它們被設計為 MLP 塊的隱藏層維度比輸入維度寬四倍,如下圖所示。有趣的是,這種設計與 ResNet 塊中的擴張率相關。因此,我們利用 ResNet 塊中的類似設計并向上移動深度卷積來計算特征。此外,通過引入了具有 1 × 1 × 1 卷積核大小的深度卷積縮放(DCS),以獨立地線性縮放每個通道特征。通過獨立擴展和壓縮每個通道來豐富特征表示,可以最小化跨通道上下文產(chǎn)生的冗余信息,同時在每個階段增強了與下采樣塊的跨通道特征對應。最后,通過使用 DCS,可以進一步將模型復雜度降低 5%,并展示了與使用 MLP 模型的架構(gòu)相當?shù)慕Y(jié)果。

2a35a11e-a187-11ed-bfe3-dac502259ad0.png

layer-wise

介紹完微觀層面的設計思想,再讓我們從宏觀層面出發(fā),以另外三個嶄新的視角去理解作者的動機。

Applying Residual Connections

從上圖左上角可以看到,標準的 3D U-Net 模型內(nèi)嵌的模塊為 2 個 3 x 3 x 3 卷積的堆疊,其展示了使用小卷積核提取具有增加通道的局部表示的樸素方法;而其右手邊的 SegResNet 則應用了類似 3D 版本的瓶頸層,先降維再升維最后再接殘差表示;緊接著左下角的便是 Swin Transformer,其基于窗口注意力+MLP層的組合;最后右下角便是本文所提出的模塊,其在最后一個縮放層之后應用輸入和提取特征之間的殘差連接。此外,在殘差求和前后并沒有應用到任何的歸一化層和激活層。

Adapting Layer Normalization

我們知道,在卷積神經(jīng)網(wǎng)絡中,BN 是一種常用策略,它對卷積表示進行歸一化以增強收斂性并減少過擬合。然而,之前的工作已經(jīng)證明 BN 會對模型的泛化能力產(chǎn)生不利影響。因此作者這里跟 ConvNeXt 一致,將 BN 替換為 LN。

Using GELU as the Activation Layer

ReLU 是個好東西,幾乎是現(xiàn)代 CNNs 模型的首選激活函數(shù)。作者在這里提倡使用 GELU,這是一種基于高斯誤差的線性變換單元,相對 ReLU 更加平滑,也是其中一種變體,解決 ReLU 因負梯度被硬截斷而導致的神經(jīng)元失活問題。

方法

2a3d3cc6-a187-11ed-bfe3-dac502259ad0.png

可以看出,整體的設計思路非常簡潔,框架也是一目了然,就一個標準的 3D U-Net 架構(gòu),由編碼器-解碼器組成,同時結(jié)合長跳躍連接操作幫助網(wǎng)絡更好的恢復空間細節(jié)的定位。也沒啥好分析的,下面就簡單拆開來看看,帶大家快速的過一遍就行。

DEPTH-WISE CONVOLUTION ENCODER

首先,輸入部分應用一個大卷積核將原始圖像映射到一個低維空間分辨率的潛在空間特征表示,一來降低顯存參數(shù)量計算量等,二來可以增大網(wǎng)絡感受野,順便再處理成編碼器輸入所需的格式,總之好處多多,不過都是基操。

處理完之后就輸入到編碼器中進行主要的特征提取,該編碼器共4個stage,也是標準的16倍下采樣。每個stage由多個不同的 3D UX-Net Block 構(gòu)成,具體長啥樣自己看下左圖一點就通。主要的特點就是主打輕量化和大感受野。

DECODER

編碼器中每個階段的多尺度輸出通過長跳躍連接鏈接到基于 ConvNet 的解碼器,并形成一個類似U形的網(wǎng)絡以用于下游的分割任務。這一塊就跟標準的 3D U-Net 幾乎沒啥兩樣了。

實驗

消融實驗

2a4968c0-a187-11ed-bfe3-dac502259ad0.png

可視化效果

2a517ac4-a187-11ed-bfe3-dac502259ad0.png

可以看到,與 GT 相比,3D UX-Net器官和組織的形態(tài)得到了很好的保存。

與 SOTA 方法的對比

2a5b742a-a187-11ed-bfe3-dac502259ad0.png

從上述表格可以看出,3D UX-Net 在所有分割任務中均展示出最佳性能,并且 Dice 分數(shù)有了顯著提高(FeTA2021:0.870 到 0.874,F(xiàn)LARE2021:0.929 到 0.934)。

總結(jié)

本文為大家介紹了 3D UX-Net,這是第一個將分層 Transformer 的特征與用于醫(yī)學圖像分割的純 ConvNet 模塊相適應的3D網(wǎng)絡架構(gòu)。具體地,本文重新設計了具有深度卷積的編碼器塊,以更低的代價實現(xiàn)與 Transformer 想媲美的能力。最后,通過在三個具有挑戰(zhàn)性的公共數(shù)據(jù)集上進行的廣泛實驗表明所提方法的高效性。

審核編輯 :李倩


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標題:ICLR 2023 | 3D UX-Net:超強的醫(yī)學圖像分割新網(wǎng)絡

文章出處:【微信號:CVer,微信公眾號:CVer】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    常見3D打印材料介紹及應用場景分析

    3D打印材料種類豐富,不同材料性能差異明顯。本文介紹PLA、ABS、PETG等常見3D打印材料的特點與應用場景,幫助讀者了解3D打印用什么材料更合適,為選材提供基礎參考。
    的頭像 發(fā)表于 12-29 14:52 ?648次閱讀
    常見<b class='flag-5'>3D</b>打印材料介紹及應用場景分析

    探索TLE493D-P3XX-MS2GO 3D 2Go套件:開啟3D磁傳感器評估之旅

    探索TLE493D-P3XX-MS2GO 3D 2Go套件:開啟3D磁傳感器評估之旅 在電子工程師的日常工作中,評估和開發(fā)磁傳感器是一項常見且重要的任務。英飛凌(Infineon
    的頭像 發(fā)表于 12-18 17:15 ?864次閱讀

    iDS iToF Nion 3D相機,開啟高性價比3D視覺新紀元!

    一、友思特新品 友思特 iDS uEye Nion iTof 3D相機將 120 萬像素的卓越空間分辨率與可靠的深度精度相結(jié)合—即使在極具挑戰(zhàn)性的環(huán)境中也能確保獲取精細的 3D 數(shù)據(jù)。 其外殼達到
    的頭像 發(fā)表于 12-15 14:59 ?402次閱讀
    iDS iToF Nion <b class='flag-5'>3D</b>相機,開啟高性價比<b class='flag-5'>3D</b>視覺新紀元!

    微納尺度的神筆——雙光子聚合3D打印 #微納3D打印

    3D打印
    楊明遠
    發(fā)布于 :2025年10月25日 13:09:29

    玩轉(zhuǎn) KiCad 3D模型的使用

    “ ?本文將帶您學習如何將 3D 模型與封裝關聯(lián)、文件嵌入,講解 3D 查看器中的光線追蹤,以及如何使用 CLI 生成 PCBA 的 3D 模型。? ” ? 在日常的 PCB 設計中,我們大部分
    的頭像 發(fā)表于 09-16 19:21 ?1.2w次閱讀
    玩轉(zhuǎn) KiCad <b class='flag-5'>3D</b>模型的使用

    季豐電子邀您相約2025國際3D視覺感知與應用大會

    9月20日 - 21日,國際3D視覺感知與應用大會將在蘇州太湖國際會議中心盛大啟幕,大會議題涵蓋3D成像與測量、3D視覺、3D顯示、3D應用
    的頭像 發(fā)表于 09-08 15:03 ?1065次閱讀

    iTOF技術,多樣化的3D視覺應用

    視覺傳感器對于機器信息獲取至關重要,正在從二維(2D)發(fā)展到三維(3D),在某些方面模仿并超越人類的視覺能力,從而推動創(chuàng)新應用。3D 視覺解決方案大致分為立體視覺、結(jié)構(gòu)光和飛行時間 (TOF) 技術
    發(fā)表于 09-05 07:24

    AD 3D封裝庫資料

    ?AD ?PCB 3D封裝
    發(fā)表于 08-27 16:24 ?7次下載

    3D打印能用哪些材質(zhì)?

    3D打印的材質(zhì)有哪些?不同材料決定了打印效果、強度、用途乃至安全性,本文將介紹目前主流的3D打印材質(zhì),幫助你找到最適合自己需求的材料。
    的頭像 發(fā)表于 07-28 10:58 ?3882次閱讀
    <b class='flag-5'>3D</b>打印能用哪些材質(zhì)?

    TechWiz LCD 3D應用:FFS仿真

    建模任務 堆棧結(jié)構(gòu) 建模過程 2.1使用TechWiz Layout繪制各層掩模版平面圖 2.2創(chuàng)建堆棧結(jié)構(gòu),并生成3D結(jié)構(gòu) 2.3 使用TechWiz LCD 3D進行各項參數(shù)計算 3. 結(jié)果分析
    的頭像 發(fā)表于 07-14 14:08 ?696次閱讀
    TechWiz LCD <b class='flag-5'>3D</b>應用:FFS仿真

    【正點原子STM32MP257開發(fā)板試用】基于 DeepLab 模型的圖像分割

    【正點原子STM32MP257開發(fā)板試用】圖像分割 本文介紹了正點原子 STM32MP257 開發(fā)板基于 DeepLab 模型實現(xiàn)圖像分割的項目設計。 DeepLab 模型 DeepL
    發(fā)表于 06-21 21:11

    3D AD庫文件

    3D庫文件
    發(fā)表于 05-28 13:57 ?6次下載

    2025年3D工業(yè)相機選型及推薦

    3D工業(yè)相機的選型
    的頭像 發(fā)表于 05-21 16:49 ?1805次閱讀
    2025年<b class='flag-5'>3D</b>工業(yè)相機選型及推薦

    3D閃存的制造工藝與挑戰(zhàn)

    3D閃存有著更大容量、更低成本和更高性能的優(yōu)勢,本文介紹了3D閃存的制造工藝與挑戰(zhàn)。
    的頭像 發(fā)表于 04-08 14:38 ?2474次閱讀
    <b class='flag-5'>3D</b>閃存的制造工藝與挑戰(zhàn)

    一種以圖像為中心的3D感知模型BIP3D

    在具身智能系統(tǒng)中,3D感知算法是一個關鍵組件,它在端側(cè)幫助可以幫助智能體理解環(huán)境信息,在云端可以用來輔助生成3D場景和3D標簽,具備重要的研究價值。現(xiàn)有主流算法主要依賴于點云作為輸入
    的頭像 發(fā)表于 03-17 13:44 ?1241次閱讀
    一種以<b class='flag-5'>圖像</b>為中心的<b class='flag-5'>3D</b>感知模型BIP<b class='flag-5'>3D</b>