AI学习者 · 2021年09月15日

改进UNet | 透过UCTransNet分析ResNet+UNet是不是真的有效?

image.png

本文提出了一种新的医学图像分割框架UCTransNet,该模型中设计了一个CTrans模块,性能提升明显。整体性能优于Swin-UNet、TransUNet等网络。
作者单位:东北大学、阿尔伯塔大学

1简介

最近的很多医疗语义分割方法都采用了带有编解码器结构的U-Net框架。但是U-Net采用简单的跳跃连接方案对于全局多尺度问题进行建模仍然具有挑战性:

  1. 由于编解码器阶段特征集不兼容,并不是每个跳跃连接设置都是有效的,甚至一些跳跃连接会对分割性能产生负面影响;
  2. 原有的U-Net在某些数据集上比没有跳过连接的U-Net更差。

基于研究结果,作者提出了一个新的细分框架UCTransNet(在U-Net中提出了一个CTrans模块),从通道注意力机制的视角出发。

具体来说,CTrans(Channel Transformer))模块是U-Net skip connections的替代,其中一个子模块用于与Transformer进行多尺度通道交叉融合(CCT),另一个子模块Channel-wise Cross-attention(CCA)用于引导融合的多尺度通道信息与解码器特征有效连接以消除歧义。

因此,本文提出的由CCT和CCA组成的连接能够代替原有的skip connections,解决语义空白,实现精确的医学图像自动分割。

实验结果表明,UCTransNet可以得到更精确的分割性能,并在不同数据集和传统架构(包括transformer或U-Shape框架)的语义分割方面取得了一致的改进。

本文主要贡献:

  1. 分析了skip connections在多个数据集上的有效性,表明独立简单复制是不合适的。
  2. 提出了一个新的视角来提高语义分割的性能,即通过更有效的特征融合和多尺度的通道交叉注意力来弥补low-level和high-level特征之间的语义和分辨率差距,以捕获更复杂的通道依赖。
  3. UCTransNet是第一个从通道角度重新思考Transformer自注意力机制的方法。与其他先进的分割方法相比,实验结果在公共数据集上都有更好的性能。

2Skip connection的分析

image.png
图3

发现 1

没有任何Skip connection的U-net甚至比原来的U-net更好。比较图3,可以发现“U-Net-none”在几乎所有参数的算法中表现最差MoNuSeg数据集。然而,“U-Net-none”,尽管没有任何限制,仍然在Glas数据集上取得了与“U-Net-all”非常有竞争力的性能。它表明Skip connection并不总是对语义分割有益。

发现 2

尽管UNet-all比UNet-none性能更好,但并不是所有简单复制的Skip connection都对语义分割有用。每个Skip connection的贡献是不同的。作者发现,在MoNuSeg数据集上,每个Skip connection的性能范围分别为[67.5%,76.44%]和[52.2%,62.73%]。对于不同的single skip connection,冲击变化较大。

此外,由于编码器和解码器阶段的特征集不兼容的问题,一些skip connection对分割性能有负面影响。例如,L1在Glas数据集上的Dice和IOU方面的表现比UNet-none差。这个结果并不能证明来自编码器阶段的许多特性是不能提供信息的。其背后的原因可能是简单的复制不适合特征融合。

发现 3

对于不同的数据集,skip connection的最佳组合是不同的,这取决于目标病变的规模和外观。作者进行了几个消融实验,以探索最佳侧输出设置。

注意,由于空间有限,作者忽略了两个skip connection的组合。

可以看到,skip connection并没有获得更好的性能,没有L4的模型在MoNuSeg数据集上表现最好,而令人惊讶的是,只有一个skip connection的L3在GlaS数据集上表现最好。这些观察结果表明,不同数据集的最佳组合是不同的。这进一步证实了在特征融合中引入更合适的动作而不是简单的连接的必要性。

3UCTransNet用于医学图像分割

image.png
图2 UCTransNet框架

图2展示了UCTransNet框架的概述。目前基于transformer的分割方法主要是针对U-Net的编码器进行改进,因为U-Net具有捕获远程信息的优势。这些方法,如TransUNet或TransFuse,以简单的方式将Transformer与U-Net融合,即将Transformer模块插入编码器或融合两个独立分支。但是,作者认为目前U-Net模型的潜在限制是skip connection的问题,而不是原始U-Net的编码器的问题,这足以满足大多数任务。

如skip connection分析部分所述,作者观察到编码器的特征与解码器的特征不一致,即在某些情况下,由于浅层编码器与解码器之间存在语义差异,语义信息较少的浅层特征可能会通过简单的skip connection损害最终性能。受此启发,作者通过在普通U-Net编码器和解码器之间设计一个通道化的Transformer模块来构建UCTransNet框架,以更好地融合编码器特性,减少语义差距。

具体来说,本文提出了一种通道转换器(Channel Transformer, CTrans)来替代U-Net中的skip connection,它由两个模块组成:用于多尺度编码器特征融合的CCT(Channel-wise Cross Fusion Transformer)和用于解码器特征与增强CCT特征融合的CCA(Channel-wise Cross Attention)。

4CCT

为了解决前面提到的skip connection问题提出了一种新的通道交叉融合Transformer(CCT),利用Transformer的长依赖建模优势融合多尺度编码器特征。CCT模块包括3个步骤:

  • 多尺度特征嵌入
  • 多通道交叉注意力
  • 多层感知器(MLP)

image.png

5Multi-head Cross-Attention

token被输入到多头通道交叉注意力模块,然后是具有残差结构的多层感知器(MLP),以编码通道关系和依赖,使用多尺度特征从每个U-Net编码器级别提取特征。

image.png
图5

image.png
image.png
图4

与原始自注意力的主要区别在于,本文沿着通道轴而不是patch轴进行注意力操作(见图4),并且在相似图上使用实例归一化,使得梯度可以平滑地传播。在N头注意力情况下,多头交叉注意力后的输出计算如下:
image.png
N是Head数。下面,应用简单的MLP和残差算子,得到输出如下:

image.png
image.png

6CCA

为了更好地融合Channel Transformer与U-Net解码器之间语义不一致的特征,本文提出了一个面向通道的交叉注意力模块,该模块可以指导Channel和information filtering of the Transformer特征,消除与解码器特征的歧义。
image.png

7实验

image.png

表1报告了实验结果,其中最好的结果用粗体表示。表1显示,本文的方法具有一致的改进之前的效果,如Glas数据集,与基于Transformer模型相比性能分别提升2.42%(3.59%),4.05%(7.07%)的Dice (IoU)较U-Net基础模型和从1.80%(2.98%),3.65%(6.12%)。

image.png

在表2中,可以做类似的观察和结论,这再次验证了UCTransNet优于其他所有公司。此外,预训练方案不仅收敛速度更快,而且在MoNuSeg数据集上取得了比其他方法更好的性能,甚至优于联合学习方案。这些观察结果表明,这两个提出的模块可以纳入预先训练的U-Net模型,以提高分割性能。

image.png
图6

image.png
图7

对比模型的分割结果图6和图7。红框突出显示UCTransNet比其他方法表现更好的区域。结果表明,UCTransNet可以产生更好的分割结果,与Baseline模型的分割结果相比,UCTransNet的分割结果更接近ground truth。可以看出,提出的方法不仅突出了右侧显著区域,消除了混淆的假阳性病变,而且产生了连贯的边界。这些观察结果表明UCTransNet能够在保留详细形状信息的同时进行更精细的分割。
image.png
image.png
如表3所示,在所有数据集上,“Base+CCT+CCA”总体上优于其他Baseline。通过将CCT和CCA集成到U-Net在Dice和IoU方面分别提高了1.12%和1.22%,说明了两个模块组合的有效性。研究结果揭示了多尺度多通道特征融合在编码器-解码器框架中对提高分割性能的重要性。

8参考

[1].UCTransNet: Rethinking the Skip Connections in U-Net from a Channel-wise Perspective with Transformer

原文:集智书童
作者:ChaucerG

推荐阅读

更多嵌入式AI技术相关内容请关注嵌入式AI专栏。
推荐阅读
关注数
16518
内容数
1230
嵌入式端AI,包括AI算法在推理框架Tengine,MNN,NCNN,PaddlePaddle及相关芯片上的实现。欢迎加入微信交流群,微信号:aijishu20(备注:嵌入式)
目录
极术微信服务号
关注极术微信号
实时接收点赞提醒和评论通知
安谋科技学堂公众号
关注安谋科技学堂
实时获取安谋科技及 Arm 教学资源
安谋科技招聘公众号
关注安谋科技招聘
实时获取安谋科技中国职位信息