视网膜血管是人体微循环的重要组成部分,其血管直径、迂曲度和分支模式等形态学变化特征与青光眼、糖尿病、高血压等疾病的严重程度密切相关。例如,原发性高血压会导致视网膜血管的痉挛和狭窄,血管壁增厚,严重者会导致渗出、出血和棉絮斑。医生利用仪器观察和分析视网膜的血管形状、粗细以及有无增生,可以对眼底疾病进行有效筛查和诊断。由于视网膜血管的厚度变化大、眼科疾病的体征以及光照不平衡等问题,视网膜血管分割具有挑战性。目前临床上需要经验丰富的专家手动分割视网膜区域。这种人工操作方法不仅耗时耗力,分割结果也不理想[1–4]。因此,找到一种高效的自动视网膜血管分割方法辅助医生进行检查和诊断是一项非常重要且有意义的工作。
一般来说,基于机器学习的视网膜血管分割算法可以大致分为两类:无监督方法和有监督方法,两者的区别在于输入数据是否有人工分割的标签。有监督学习需要海量的数据标签,训练周期较长,但具有良好的泛化效果[5]。无监督方法,如匹配滤波[6]、形态学[7]、血管跟踪方法[8]等,可以自动根据现有数据学习和寻找目标的特征信息,找到类似血管的模式或簇。但是当分割图像存在过多的干扰信息时,无监督提取血管分割算法的分割效果欠佳,性能还有待进一步提高。
随着计算机视觉领域的快速发展,深度学习技术在图像处理方向发挥了重要作用。深度学习是仿造神经元的结构去模拟人类思考的思维模式,可以快速处理原始数据以提取有效特征和自动学习特征分类。深度学习打破了传统特征选择方法的设计复杂性和局限性,避免了人工选择特征的误差,网络模型可以从海量的数据库中学习最深层的特征。由于深度卷积神经网络(DCNN)的成功,许多分割网络被提出并应用于医学图像领域,如全卷积神经网络( FCN )[9]、Deep Lab[10]、SegNet[11]、U-Net[12]等。通过引入跳跃连接,U-Net能够有效融合图像低层和高层特征,减少语义鸿沟问题,在医学图像上表现出了良好的检测能力。Wang等[13]提出双编码U-Net( DEUNet ),显著增强了网络以端到端和像素到像素的方式分割视网膜血管的能力。Yoo等[14]引入注意力机制,增加有用特征信息的权重,减少冗余信息的干扰,进一步提高网络的表达能力。Cherukuri等[15]使用多尺度表示滤波器来处理血管厚度多样性。此外,Yan等[16]提出了一种新的片段级损失,改善了薄血管的分割结果。上述网络模型在视网膜血管分割的研究任务中都可以获取精确的血管轮廓和细节信息,但依然存在以下问题:一方面,在许多边缘区域,低对比度使微小血管与背景难以区分;另一方面,用于模型的样本较少,容易出现过拟合问题。
因此,本文提出一种改进的U-Net视网膜血管分割算法。首先对数据进行通道提取,选取对比度较高的通道作为输入并进行归一化、均衡化等预处理操作;然后用残差模块替代传统卷积,不仅解决了梯度消失和梯度爆炸的问题,还能提高网络的性能;最后在编解码间采用细节增强注意力机制进行跳跃连接,提高网络对微小的血管特征抓取的能力。将残差模块和注意力机制模块与U-Net相结合,能够有效提高模型对血管轮廓分割的准确性以及细节特征识别能力。
1 算法原理 1.1 改进的U-Net受到ResNet和传统递归网络的启发,并参考了当前基于CNN的U-Net的一些想法,本文对U-Net进行了改进。首先将U-Net编码器和解码器的传统卷积Conv+ReLU结构改为残差模块。由于网络深度的增加,使用残差结构可以避免网络深度增加导致的梯度消失问题。另外在跳跃连接处引入细节增强注意力机制(DEA),可以支持通道之间的复杂相关性,并减少网络深度增加导致的参数数量和计算负担。
图1为本文改进的U-Net框架,由编码器、解码器、带有细节增强注意力机制的跳跃连接三部分组成。编码器包含4组下采样层和残差卷积模块,解码器由4组上采样和残差卷积模块以及最高层1×1的卷积层组成,用来恢复特征大小,将通道数降为一维并通过Sigmoid激活函数输出分割结果。编解码器之间由带有注意力机制的跳跃层连接,用以在提高网络分割精度的同时捕获到视网膜血管的更多细节特征。
![]() |
图 1 网络模型结构 Figure 1 Structure of network model |
在深度学习的模型搭建过程中,网络层次的不断加深会导致梯度消失和梯度爆炸。虽然使用数据的初始化和正则化可以有效解决梯度问题,但是模型的性能也会受到影响。因为网络模型的不断加深,模型训练难度越来越大,训练的错误会先减少后增多,模型的性能会明显下降。He等[17]提出残差ResNet模块可以有效解决梯度消失和梯度爆炸问题,通过shortcut操作将输入恒等映射到输出,保证信息传递的完整性,使深层网络更易训练。即使网络模型层次再深,训练结果也可以表现优越。
在原始的U-Net网络模型中,传统的卷积层由两个Conv-BN-ReLU组成。频繁的卷积和冷却操作会产生大量的噪声信息。批量归一化(BN)方法可以规范隐藏层神经的激活值,防止出现基本信息,并提高模型的表达能力。ReLU可以降低模型的复杂性,加快收敛速度。
ResNet网络由一系列的残差模块构成。如图2所示,一个残差块可以表示为
![]() |
图 2 残差块 Figure 2 Residual module |
xl+1=xl+F(xl,Wl) | (1) |
残差块由直接映射和残差结构两个环节构成。其中
在卷积网络中,
xl+1=h(xl)+F(xl,Wl) | (2) |
其中
虽然在特征提取部分引入了残差模块,可以提取丰富的上下文特征,但在连续的下采样操作中,会丢失大量微小对象的特征。对于U-Net体系结构,简单的跳跃连接只能在一定程度上减轻池化层导致的信息丢失问题对整体分割精度的影响。为了使分割网络获取视网膜血管的更多细节,提出一种细节增强注意力(detail enhancement attention, DEA)机制来代替简单的跳跃连接。DEA是一个进行图像恢复编码端到解码端的模型,当编码端以不同尺寸的卷积核提取到不同深度的信息时,通过注意力机制增强感兴趣的区域,再对增强的信息进行融合,得到增强后的结果。
视网膜血管具有不同的厚度结构,与眼底图像中的其他结构相比,这些结构通常相对较小,尤其是薄的视网膜血管。对于U-Net,来自编码器单元的特征映射包含丰富而重要的空间细节信息,但也包含一些图像噪声。本文提出DEA模块的目的是捕获视网膜血管的空间信息并减小图像噪声的影响,模型提取的有效特征可以与编码器特征充分融合,从而避免上采样过程中一些微小血管与边缘信息丢失的情况。对编码层输出执行全局池化操作,并计算注意力向量来校准特征信息的权重,从而提高网络对血管特征的敏感性。详细的细节增强注意力机制的原理如图3所示。
![]() |
图 3 细节增强模块 Figure 3 Detail enhancement model |
首先对特征图
为了全面评估和测试提出的改进U-Net的分割性能,本文在DRIVE公共数据集上进行实验。DRIVE数据集作为视网膜血管分割常用的公共数据集,包含40幅三通道彩色图像,每幅图像的图像大小为584 pixel×565 pixel。由于DRIVE数据集数据量很小,为了避免模型在训练过程中产生过拟合现象,需要对DRIVE数据集进行数据增强。首先将预处理后的图像进行−90°到90°随机旋转;然后将图片随机进行水平或垂直翻转,概率各为50%;最后采用滑窗方式对图像进行随机切片。模型训练和测试分为两部分,比例为1∶1。20幅图像用于训练,其余部分用于模型测试。
眼底图像通常包含噪声和不均匀光照,需要在训练前进行图像预处理操作。通过实验发现,RGB三通道的绿色通道的血管与背景的对比度高,图片可以表现更细节的血管特征。因此,在预处理操作中首先提取绿色通道视网膜图片作为输入;然后对图片进行归一化处理和CLAHE算法(对比度受限自适应直方图均衡化)进一步提高视网膜血管特征与背景的对比度;最后在不影响亮度较强部分的图像质量的情况下,用伽马变换算法增强眼底视网膜图像中亮度较暗的血管部分。由于数据集数量不足容易引发过拟合问题,本文采用图像随机翻转、旋转、剪裁的数据增强技术应用于眼底图像,以构建更多的训练数据。
在个人计算机MAC13.1操作系统、8 GB内存、PyTorch1.13上搭建实验平台,实验操作参数如表1所示。
![]() |
表 1 实验参数配置 Table 1 Experimental parameter configuration |
本文使用目前分割算法中常见的性能指标,敏感性(Sensitivity)、特异性(Specificity)、准确性(Accuracy)、F1值(F1-score)来评估算法的性能,各项指标的具体定义如表2所示。TP:被正确分割的血管像素数量;FP:错误分割的血管像素数量;TN:正确分割的背景像素数量;FN:错误分割的背景像素数量。
![]() |
表 2 性能指标 Table 2 Performance indicators |
为了验证本文所提网络框架的性能,分析了不同模型的分割结果。在实验中,不同的模型训练使用相同的实验配置、参数和训练集的数量。在DRIVE数据集上进行了U-Net、U-Net+Res、U-Net+DEA以及本文算法的实验。比较了实验结果,如表3所示。
![]() |
表 3 基于U-Net的不同结构模型的测试结果 Table 3 Results of different structural models based on U-Net |
表3中的结果表明,DRIVE数据集上本文所提算法的Acc、Se和F1值高于U-Net、U-Net+Res和U-Net+DEA模型,分别为
根据视网膜血管图像分割可视化图的分析结果,图4显示了U-Net和本文算法在DRIVE测试数据集上的血管分割结果。其中,图4(a)列为视网膜初始图像,图4(b)为专家标准分割图,图4(c)为U-Net模型分割结果图,图4(d)为本文算法分割结果图。实验结果验证了本文所提算法的可行性,分割结果优于U-Net模型。
![]() |
图 4 U-Net及本文算法在DRIVE中的分割结果 Figure 4 Results of U-Net and our algorithm on DRIVE |
图5是视网膜血管局部分割对比图,每一行包括原始图像、标准图像、U-Net分割图像和本文算法分割结果图像,并且相同局部区域的图像被放大。通过实验对比可以发现U-Net模型虽然可以检测大部分视网膜血管,但血管连接部分的检测效果较差。如分割图的第1行所示,上侧两个大血管分叉的连接处断开,并且U-Net分割结果的中间部分直接忽略了模糊小血管的分割。这表明本文提出的算法模型比U-Net模型具有更强的特征提取能力,并且可以正确地分割血管像素。
![]() |
图 5 局部分割对比图 Figure 5 Comparison of partial segmentation |
2.3节已证明本文算法模型在视网膜血管分割中比U-Net模型具有更好的性能。为了进一步证明本文算法在视网膜血管分割中的性能,在DRIVE数据集上将本文算法与现有医学图像分割领域的先进方法进行了定量对比,如表4所示。在DRIVE数据集中,所提出的算法比其他算法取得了更好的结果。与其他算法相比,本文算法Se和F1值明显优于其他方法。图6为不同算法指标对比的折线图,从图6可以明显看到,本文算法的4个性能指标明显高于大多数方法。其他算法由于未对毛细血管处进行细节增强处理,对末端细小血管的特征提取并不到位,会出现不同程度的欠分割和不连续的情况。因此,本文算法能够准确分割视网膜血管,捕获到视网膜血管的更多细节,具有良好的性能。
![]() |
表 4 不同算法在DRIVE数据集的测试结果 Table 4 Results of different algorithms on DRIVE |
![]() |
图 6 不同算法指标对比折线图 Figure 6 Line chart for comparison of different algorithm indicators |
为了能更加直观地对比本文算法与其他网络的结果,现将分割图进行对比,如图7所示。从图7可以看到,在红框部分其他网络在分割血管末端时出现了不同程度的断裂和噪点,而改进的U-Net不仅完整地分割到了末端血管且未出现噪点,分割结果干净完整。这再次说明本文算法的分割结果是优于其他8个网络的。但本文算法框架相比其他方法更为复杂,仍需致力于保持高网络分割精度的同时降低算法复杂度。
![]() |
图 7 DRIVE数据集分割对比图 Figure 7 Comparison of segmentation on DRIVE |
本文算法结合了ResNet和注意力机制,提出一种改进的U-Net分割模型。以U-Net为基础,先将原始的传统卷积替换为残差卷积,又引入了细节增强模块(DEA),降低下采样所导致的细小血管信息丢失的可能性。在DRIVE数据集上进行测试,得到的准确性、敏感性、特异性和F1值分别为96.73%、83.73%、98.43%和82.93%。相比传统算法,本文算法分割结果可观,整体性能较优。
[1] | GUO Q, DUFFY S P, MATTHEWS K, et al. Microfluidic analysis of red blood cell deformability[J]. Journal of Biomechanics, 2014, 47(8): 1767–1776. DOI:10.1016/j.jbiomech.2014.03.038 |
[2] | CHEUNG C Y L, IKRAM M K, CHEN C, et al. Imaging retina to study dementia and stroke[J]. Progress in Retinal and Eye Research, 2017, 57: 89–107. DOI:10.1016/j.preteyeres.2017.01.001 |
[3] | YU L F, QIN Z, ZHUANG T M, et al. A framework for hierarchical division of retinal vascular networks[J]. Neurocomputing, 2020, 392: 221–232. DOI:10.1016/j.neucom.2018.11.113 |
[4] | FRAZ M M, WELIKALA R A, RUDNICKA A R, et al. QUARTZ: quantitative analysis of retinal vessel topology and size – an automated system for quantification of retinal vessels morphology[J]. Expert Systems with Applications, 2015, 42(20): 7221–7234. DOI:10.1016/j.eswa.2015.05.022 |
[5] | LI J, ZHANG T, ZHAO Y, et al. MC-UNet: multimodule concatenation based on U-shape network for retinal blood vessels segmentation[J]. Computational Intelligence and Neuroscience, 2022, 2022: 9917691. |
[6] | CHAUDHURI S, CHATTERJEE S, KATZ N, et al. Detection of blood vessels in retinal images using two-dimensional matched filters[J]. IEEE Transactions on Medical Imaging, 1989, 8(3): 263–269. DOI:10.1109/42.34715 |
[7] | ZANA F, KLEIN J C. Segmentation of vessel-like patterns using mathematical morphology and curvature evaluation[J]. IEEE Transactions on Image Processing, 2001, 10(7): 1010–1019. DOI:10.1109/83.931095 |
[8] | CHUTATAPE O, ZHENG L, KRISHNAN S M. Retinal blood vessel detection and tracking by matched Gaussian and Kalman filters[C]//Proceedings of the 20th Annual International Conference of the IEEE Engineering in Medicine and Biology Society. Hong Kong, China: IEEE, 1998: 3144 − 3149. |
[9] | JI J, LU X C, LUO M, et al. Parallel fully convolutional network for semantic segmentation[J]. IEEE Access, 2021, 9: 673–682. DOI:10.1109/ACCESS.2020.3042254 |
[10] | YUAN H B, ZHU J J, WANG Q F, et al. An improved DeepLab v3+ deep learning network applied to the segmentation of grape leaf black rot spots[J]. Frontiers in Plant Science, 2022, 13: 795410. DOI:10.3389/fpls.2022.795410 |
[11] | BADRINARAYANAN V, KENDALL A, CIPOLLA R. SegNet: a deep convolutional encoder-decoder architecture for image segmentation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(12): 2481–2495. DOI:10.1109/TPAMI.2016.2644615 |
[12] | RONNEBERGER O, FISCHER P, BROX T. U-Net: convolutional networks for biomedical image segmentation[C]//18th International Conference on Medical Image Computing and Computer-Assisted Intervention. Munich, Germany: Springer, 2015: 234 − 241. |
[13] | WANG B, QIU S, HE H G. Dual encoding U-Net for retinal vessel segmentation[C]//22nd International Conference on Medical Image Computing and Computer Assisted Intervention. Shenzhen, China: Springer, 2019: 84 − 92. |
[14] | YOO D, PARK S, LEE J Y, et al. AttentionNet: aggregating weak directions for accurate object detection[C]//2015 IEEE International Conference on Computer Vision (ICCV). Santiago, Chile: IEEE, 2015: 2659 − 2667. |
[15] | CHERUKURI V, KUMAR B G V, BALA R, et al. Deep retinal image segmentation with regularization under geometric priors[J]. IEEE Transactions on Image Processing, 2020, 29: 2552–2567. DOI:10.1109/TIP.2019.2946078 |
[16] | YAN Z Q, YANG X, CHENG K T. Joint segment-level and pixel-wise losses for deep learning based retinal vessel segmentation[J]. IEEE Transactions on Biomedical Engineering, 2018, 65(9): 1912–1923. DOI:10.1109/TBME.2018.2828137 |
[17] | HE K M, ZHANG X Y, REN S Q, et al. Deep residual learning for image recognition[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Las Vegas, NV, USA: IEEE, 2016: 770 − 778. |
[18] | ZHANG S H, FU H Z, YAN Y G, et al. Attention guided network for retinal image segmentation[C]//22nd International Conference on Medical Image Computing and Computer Assisted Intervention. Shenzhen, China: Springer, 2019: 797 − 805. |
[19] | GU Z W, CHENG J, FU H Z, et al. CE-Net: context encoder network for 2D medical image segmentation[J]. IEEE Transactions on Medical Imaging, 2019, 38(10): 2281–2292. DOI:10.1109/TMI.2019.2903562 |
[20] | JIN Q G, MENG Z P, PHAM T D, et al. DUNet: a deformable network for retinal vessel segmentation[J]. Knowledge-Based Systems, 2019, 178: 149–162. DOI:10.1016/j.knosys.2019.04.025 |
[21] | WU H S, WANG W, ZHONG J F, et al. SCS-Net: a scale and context sensitive network for retinal vessel segmentation[J]. Medical Image Analysis, 2021, 70: 102025. DOI:10.1016/j.media.2021.102025 |
[22] | GU R, WANG G T, SONG T, et al. CA-Net: comprehensive attention convolutional neural networks for explainable medical image segmentation[J]. IEEE Transactions on Medical Imaging, 2021, 40(2): 699–711. DOI:10.1109/TMI.2020.3035253 |
[23] | SUN K X, XIN Y L, MA Y D, et al. ASU-Net: U-shape adaptive scale network for mass segmentation in mammograms[J]. Journal of Intelligent & Fuzzy Systems: Applications in Engineering and Technology, 2022, 42(4): 4205–4220. |
[24] | RAHMAN M M, MARCULESCU R. Medical image segmentation via cascaded attention decoding[C]//2023 IEEE/CVF Winter Conference on Applications of Computer Vision (WACV). Waikoloa, HI, USA: IEEE, 2023: 6211 − 6220. |
[25] | GUO J S, ZHOU H Y, WANG L S, et al. UNet-2022: exploring dynamics in non-isomorphic architecture[EB/OL]. [2022-10-27] . https://doi.org/10.48550/arXiv.2210.15566. |