融合ECAAttention和U-Net的视杯视盘的自动分割方法

/ 2

融合ECAAttention和U-Net的视杯视盘的自动分割方法

刘曰昌 许煜坤 袁嘉昊 张磊石

哈尔滨理工大学荣成学院 山东省 荣成 264300

摘要

青光眼是一种常见且需要重视的眼疾,早期诊断和治疗对于保护视力至关重要,本文提出了一种基于U-Net和ECAAttention高效通道注意力模块的视杯视盘分割方法—ECA-Unet,在使用U型网络有效捕获信息的同时,引入自适应的注意力机制,提高了模型对目标的理解和感知能力,提高了分割准确度。

关键词:视杯视盘分割;青光眼检测;通道注意力机制;U-NetECAAttention

1ECA-Unet模型设计

本文提出了一种基于 U-Net 和 ECAAttention 高效通道注意力模块的 U 型网络用于视杯视盘联合分割任务。该方法的结构示意图1所示。该方法在下采样处加入 ECAAttention 模块,在保证通道与特征块大小不变的情况下,提高模型提取特征的能力,有效地捕获图像中上下文信息并保留细节特征,提高模型性能,而且运用轻量化的 ECAAttention 具有较小的计算复杂度和参数数量,能够减少网络负担,构成性能高,轻量化的网络模型。

图1 ECA-Unet 模型结构

本文采用的ECAAttention模块是由王等提出的一种高效的通道衰减模块,它只涉及少量的参数,同时带来明显的性能增益。ECAAttention模块是一种有效的渠道维护用于深度CNN的模块,可避免维度缩减,并以高效的方式捕获跨通道交互。在没有降维的情况下进行渠道全局平均池化后,ECAAttention模块通过考虑每个通道及其k相邻卷积数。实践证明,这种方法既能保证效率,又能保证效果。ECAAttention可以由一维卷积高效实施,其中内核大小k表示本地跨通道交互的覆盖范围,即有多少相邻卷积参与一个频道的注意力预测。为了避免手动调整k,通过交叉验证开发了一种自适应确定k,其中交互的覆盖范围(即:内核大小k)与通道尺寸成比例。

2数据处理

本文所采用的数据集是REFUGE数据集,该数据集由总共1200张视网膜眼底图像组成,且被等分为3个子集,分别为训练、验证和测试集,每组由400张图像组成,每张图像都对应其金标准。

在视杯视盘分割中,视杯视盘区域与眼底图像的背景区域出现极大的类别不平衡,如果直接用于网络训练则冗余的信息很容易造成分割精度低,过拟合等现象。为了解决该问题,本文在训练之前,对视杯视盘感兴趣的区域进行预分割。为了达到更好的训练效果400张眼底图像是远远不够的。因此本文对数据集采用了放大、缩小、翻转和弹性形变等策略来进行数据增强。,以解决数据集不足,医学图像类别不平衡等问题,最后得到了3200张的扩充数据集。

3实验结果与分析

为了使实验更有说服力,本次实验使用了同样的硬件环境,训练了传统的U-net网络,SegNet网络,U-Net++网络,AttentionU-Net网络,我们的ECA-Unet。并将其实验结果进行对比。并将其带入REFUGE测试集进行测试,得到了表1。

表1 与其他先进模型的定量分割结果比较

模型

Dice (cup)

Dice (disc)

U-net

0.889 4

0.799 2

SegNet

0.921 3

0.832 0

U-Net++

0.933 9

0.865 3

AttentionU-Net

0.919 2

0.828 7

ECA-Unet

0.941 1

0.866 0

本文针对眼底视杯视盘分割提出了一种新型的改进U-Net网络结构ECA-Unet该网络在U型网络的基础上,在下采样处增加了ECAAttention模块。该模块通过快速的一维卷积,其核大小可以通过通道维度的非线性映射来自适应地确定,提高了模型的特征提取能力,克服下采样存在特征丢失的可能性,提高了分割精准度。最后,本文在REFUGE数据集上展示了一些与其他先进网络分割结果的比较,结果显示本文提出的方法较当下一些先进的深度学习方法具有更好的分割效果,所提方法在ODOC分割上具有相对明显的优势。

4参考文献:

[1]Gu Z, Cheng J, Fu H, et al. Ce-net: Context encoder network for 2d medical image segmentation[J]. IEEE transactions on medical imaging, 2019, 38(10): 2281-2292.

[2]Zhang T, Qi G J, Xiao B, et al. Interleaved group convolutions[C]//Proceedings of the IEEE international conference on computer vision. 2017: 4373-4382.

作者简介:刘曰昌(2002.02— ),男,山东滨州人,汉族,本科在读,毕业于哈尔滨理工大学,研究方向:图像处理。

基金项目:黑龙江省大学生创新创业训练计划项目(基于多分辨率级联注意力机制的视盘分割与中央凹定位系统,NO.S202310214159)。

姓名:刘曰昌 

单位及邮编:哈尔滨理工大学,264300

邮寄地址和邮编以及电话:山东省荣成市学院路2006邮编264300

电话:13863132787

第二作者:许煜坤  哈尔滨理工大学,264300

第三作者:袁嘉昊  哈尔滨理工大学,264300

第四作者:张磊石  哈尔滨理工大学,264300

基金项目:黑龙江省大学生创新创业训练计划项目(基于多分辨率级联注意力机制的视盘分割与中央凹定位系统,NO.S202310214159)。