近年来毫米波技术已被应用于人体安检成像系统,有逐步取代传统安检技术的趋势。毫米波辐射属于非电离辐射,对人体无害,且具有穿透衣物的能力,因此可以应用于人体成像,检测隐藏在衣服里面的违禁物体。毫米波成像雷达和成像算法已经成熟,并且已经实现商用[1-3]。但针对毫米波图像的违禁物体定位仍然是一个亟待解决的问题。鉴于毫米波硬件的不稳定性,毫米波图像往往存在较大的本底噪声,物体的纹理非常模糊。而违禁物品种类繁多,各物体纹理复杂,难以提取有效的特征。这使得毫米图像的物体定位成为一项艰巨的任务。
卷积神经网络(convolutional neural network,CNN)是一种强大的特征提取方法[4],并且在许多计算机视觉任务中达到了最好的性能[5-7],使用CNN,ImageNet数据集中的分类错误率在2012年降低到了15.3%[8],压倒了基于传统手工特征提取方法,如SIFT(Scale Invariant Feature Transform)和LBP(Lo-cal Binary Pattern)方法。2015年,ImageNet数据集的识别误差通过CNN降低到了3.57%[9]。2016年,Faster R-CNN[6]使用区域提议网络(region proposal network,RPN)代替选择性搜索,使得对整个目标检测框架进行端到端训练成为可能,这进一步提升了网络的检测精度及检测速度,达到了当时的先进水平。2021年,Bochkovskiy等提出的YOLOv4在保持实时检测速度的同时更大幅度提升了检测精度,成为工业界主流的目标检测框架之一[10]。2021年,Duan等提出CenterNet[11],首先通过一对角点预测边界框,然后再通过预测边界框中心点的概率去除简单负样本,在MS COCO数据集上取得了显著的性能提升。2019年,Shi 等提出PV R-CNN[12],将三维体素CNN和基于PointNet的集合抽象进行了深度集成,实现了先进的检测性能。由于CNN优异的特征提取能力,姚家雄等采用CNN对毫米图像进行物体定位并在实验中达到93.18%的定位准确率,验证了这种方法的有效性[13]。
近年来,针对如何提高远场合成孔径雷达图像目标检测准确度取得了许多成果,如薛远亮等[14]通过融合注意力机制方法有效地提高了准确率。梅妍玭等[15]通过进行多尺度子空间融合谱聚类而有效地增强了输入特征。然而公开文献中目前很少有人针对不同数据预处理方式对近场毫米波合成孔径雷达全息图像检测定位精度的影响这一问题进行探讨。本文针对毫米波图像隐匿物品检测准确度问题,基于Faster-RCNN目标检测网络,使用不同数据预处理方式探究预处理方式对毫米波全息图像目标检测准确度的影响。先使用针对距离维的空间滤波方式探究该预处理方式对毫米波全息图像目标检测准确度的影响,而后在此基础上对幅度维使用基于Calinski-Harabasz(CH)准则引导的K-Means的最大/最小值聚类的预处理方式探究该预处理方式对毫米波图像目标检测准确度的影响。实验针对4类数据集:未处理的原始毫米波全息图像、经过空间滤波的毫米波全息图像、经过空间滤波和最小值聚类的毫米波全息图像及经过空间滤波和最大值聚类的毫米波全息图像,分别在Faster-RCNN网络上进行目标定位实验。结果表明,与未进行任何预处理的数据对比,进行过预处理的数据均能有效地提高毫米波全息图像目标检测的准确度,其中效果最佳的预处理方式为空间滤波,其与未进行任何预处理方式的数据对比能提高近4%的准确度。
1 毫米波全息图像目标检测器Faster-RCNN模型在光学图像的二维目标检测任务上取得了先进性能,本文参考Faster-RCNN模型设计毫米波全息图像目标检测系统,系统框架如图1所示。对于给定的毫米波全息图像,经过预处理模块后,输出给Faster-RCNN网络进行目标定位,其中网络主要包含特征提取模块、区域候选网络(region proposal network,RPN)、RoIHead 3个模块,最终在其二维正视图上输出物品的边界框、分类标签及置信度。
![]() |
图 1 毫米波全息图像目标检测系统框架 Figure 1 Framework of millimeter wave hologram target detection system |
基于空间滤波的预处理方法是一种基于像素点距离信息的滤波方法,也是一种重要的图像处理的技术,对于本文的毫米波全息三维成像结果而言,仅仅只是对毫米波全息三维成像结果中的某一部分感兴趣,这一部分称为前景图像,其余的部分称为背景图像。为了更好地识别和分析毫米波全息三维成像中感兴趣的目标,需要将这些前景图像从图像中提取出来。
本文所使用的基于空间滤波的方法,是依据成像图像三维空间对距离维位置设立阈值,以利用阈值化处理的非线性计算来祛除图像中由于不同距离维带来的噪声,从而得到更好的前景图像。本文在此处所使用的滤波方式为基于距离维的空间阈值的预处理方式,其对应的数学表达式为
g(z)={g(z)=g(z),0<z≤z0g(z)=0,z>z0 | (1) |
式中:g(z)表示三维成像结果像素点的距离信息;z表示三维空间中像素点的实际距离;
![]() |
图 2 前景图像与对应的灰度直方图 Figure 2 Foreground image with corresponding gray histogram |
K-Means聚类算法是一种最流行、最简单的聚类算法,它通过计算分割均值[16],根据数据的特征自适应有效地分割数据。K-Means能自适应地找到每个全局分区的阈值,从而有效地为我们提供了成像图像能量分层的指导。K-Means的核心思想是:1)选择簇数量k作为初始簇中心;2)计算所有观测到每个质心的点到簇到质心的距离;3)将每个观测值分配给具有最近质心的簇;4)计算每个聚类中观测值的平均值,更新每个聚类的质心;5)重复步骤2到步骤4,直到簇质心不变。由于传统K-Means算法的簇数k是人为设置的参数,本文使用了Calinski-Harabasz(CH)准则引导的K-Means算法。其中CH准则被用来计算聚类得分,并用这个得分来判断簇数k设置是否合理。CH准则认为簇间方差越大,簇内方差越小,则数据分区越好。
点云是一种非结构化、无序的、稀疏的三维数据表示形式。简单地说,点云就是空间中一组点的集合,每个点由其XYZ坐标及其他特征(如颜色、法向量、反射强度等)表示。因此,本文在此处将原始的AMMW数据由原有的三维体数据转换到点云数据进行处理。然后基于CH准则引导的K-Means 聚类的方法,依据各点的空间位置及反射强度特征对点云进行聚类,进一步去除阈值处理后的前景图像中残留的噪声,完整的去噪流程如图3所示。对于给定的原始 AMMW 全息图像,首先通过式(1)的空间滤波的预处理方式提取前景图像保存为点云,再通过 K-Means聚类进一步去除噪声,由于本文使用反射强度作为迭代计算标准,而目标物与人体连接在一起,因此在识别过程中感兴趣的目标物信息较多地分布在最大类以及中间类的簇,最后通过统计滤波保留对应最大类或去除对应最小类,便可得到对应的空间滤波加最大/最小值聚类前景图像,实际效果图如图4所示。由图4(d)与图4(e)可知,在经过空间滤波加最小值滤波后灰度级分布更集中在低灰度级区域,但同时灰度级分布概率也大大降低。由图4(d)与图4(f)可知,在经过空间滤波加最大值滤波后灰度级分布同样更集中在低灰度级区域,但其集中程度不如空间滤波加最小值滤波方式,由于空间滤波加最大值滤波方式比空间滤波加最小值滤波方式更易造成特征信息分布的不集中,这将会影响到目标检测器对特征提取的能力,从而影响最终的检测结果。
![]() |
图 3 基于空间滤波加CH引导的K-Means 聚类的 AMMW 全息图像预处理方法 Figure 3 AMMW holographic image preprocessing method based on spatial filtering and CH-Guided K-Means clustering |
![]() |
图 4 前景图像与对应的灰度直方图 Figure 4 Foreground image with corresponding gray histogram |
Faster-RCNN 架构主要分为3部分:特征提取模块、RPN、RoIHead,图片先输入特征提取模块进行特征提取,而后利用RPN (Region Proposal Network)提供候选区域rois (region of interests),最后将得到的rois与特征提取模块提取到的图像特征,输入到RoIHead中,对这些rois进行分类,以判断这些rois均属于什么类别,同时对这些rois的位置进行微调。
特征提取模块主要使用VGG网络[17]搭建特征提取模块,特征提取模块主要由5个卷积层构成,如图5所示。在每个卷积层之后,有一个修正线性单元(rectified linear unit, ReLU)。而VGG最后的三层全连接层是用来初始化后续的RoIHead模块的部分参数。
![]() |
图 5 特征提取模块结构 Figure 5 The structure of our proposed feature extractor |
RPN是Faster-RCNN最重要的改进,RPN主要是利用提取到的特征经RPN后提供候选区域,最后将得到的rois与特征提取模块提取到的图像特征输入到RoIHead中以做进一步的分类与位置回归,而由于RPN为全卷积网络,因此对输入的尺寸没有具体要求。
Faster-RCNN中的RoIHead部分是利用RoI Pooling层进行统一下采样以使能在最后的特征图中共享权重,经两层全连接层进行特征提取之后,再经由一层全连接层预测rois类别,另一全连接层对位置进行回归以得到更为准确的位置坐标。
2 实 验 2.1 模型训练实验建立了数据集以验证方法的有效性。为了模拟实际的场景,本文准备了7件物品,包括枪、老虎钳、扳手、尖嘴钳、锤子、小车、陶瓷刀,实物图如图6所示。模特选择一个或者多个物品置于身体几个部位,经3 mm的毫米波全息成像系统扫描重建其全息图像,本数据集共包含4位模特,涵盖了不同的体型。全息图像沿着距离维方向投影得到二维正视图,用于标注物体边界框与类别。实验采集了2 200张图像验证空间滤波、基于K-Means的最大聚类、基于K-Means的最小聚类的不同预处理方式对毫米波图像目标准确率的影响。
![]() |
图 6 目标物 Figure 6 Target |
为了训练本文所使用的网络,随机选取2 000张的图像作为训练样本,另外200张图像作为测试样本,网络训练时数据批的大小设置为1,初始学习率设置为0.0001。总共训练了40个迭代周期,这时网络收敛到最小值。
2.2 实验结果本文总共用了200张图像来验证不同数据预处理方式对毫米波图像目标定位精度的影响。图7展示了不同预处理方式下检测器的输出结果图,图中物体的放置姿态或者位置有所不同,但均能实现一种准确的定位。图7(a)为未经过任何预处理方式的目标检测结果图,图7(b)为使用空间滤波加最小值聚类预处理方式的目标检测结果图,图7(c)为使用空间滤波加最大值聚类预处理方式的目标检测结果图,图7(d)为使用空间滤波预处理方式的目标检测结果图。
![]() |
图 7 检测结果 Figure 7 Detection results |
表1为无预处理和3种预处理方法的检测性能对比,图8为无预处理和3种预处理方法的检出率−召回率(P-R)曲线。由表1和图8(a)不经任何预处理的P-R曲线,可以看到,不使用任何预处理方式的目标检测准确率为88.82%;由表1和图8(b)使用空间滤波加最小值聚类方式的P-R曲线,可以看到使用空间滤波加最小值聚类方式的目标检测准确率为90.44%,相较于不使用任何预处理方式有效的提高了准确度;由表1和图8(c)不经任何预处理的P-R曲线,可以看到使用空间滤波加最大值聚类方式的目标检测准确率为90.80%,同样相较于不使用任何预处理方式有效的提高了准确度;由表1和图8(d)为经空间滤波的P-R曲线,可以看到使用空间滤波的准确率为92.30%,相较于其他预处理方式有更好的准确度。无论使用哪种预处理方式都能一定程度上提升网络的定位精度,但是使用了基于强度的最大与最小值聚类的预处理方式其目标检测的准确率要低于使用空间滤波的预处理方式。
![]() |
表 1 检测准确率 Table 1 Detection accuracy |
![]() |
图 8 检出率 – 召回率曲线 Figure 8 Precision - recall curve |
Loss曲线用于判断网络训练过程的情况。为确定网络训练情况是否良好,本文绘制了Loss关于迭代次数变化的曲线,如图9所示。当设置系统的置信度阈值取0.5时,数据批的大小设置为1,初始学习率设置为0.0001。图9(a)为不经任何预处理的Loss曲线其在验证集上正常收敛,图9(b)为经空间滤波的Loss曲线其在验证集上正常收敛。图9(c)为经空间滤波加最大值聚类的Loss曲线其在验证集上正常收敛,图9(d)为经空间滤波加最小值聚类的Loss曲线其在验证集上正常收敛。
![]() |
图 9 损失函数曲线 Figure 9 Loss curve |
通过对以上3种预处理方法性能指标的分析,得到基于空间滤波的预处理方式能够达到更好的效果,这表明在毫米波全息图像目标检测的任务中基于空间的滤波方式要好于基于反射强度的滤波方式。这为探究如何提升毫米波全息图像目标检测定位精度的任务提供了一种参考依据。
3 结 论本文针对主动式毫米波图像隐匿物品检测定位精度问题,使用空间滤波、空间滤波加最大值聚类、空间滤波加最小值聚类方法的预处理方式探究何种预处理方式能有效提高毫米波全息图像目标检测的准确度,实验结果表明对数据进行不同预处理均能有效提高毫米波全息图像目标检测的准确度,但是基于空间的滤波方式比基于强度的滤波方式能更有效地提升检测准确度,为有效提升毫米波全息图像目标检测准确度的任务提供了一种参考依据。
[1] | SHEEN D M, MCMAKIN D L, HALL T E. Three-dimensional millimeter - wave imaging for concealed weapon detection[J]. IEEE Transactions on Microwave Theory and Techniques, 2001, 49(9): 1581–1592. DOI:10.1109/22.942570 |
[2] | ZHU Y K, YANG M H, WU L, et al. Millimeter-wave holographic imaging algorithm with amplitude corrections[J]. Progress in Electromagnetics Research, 2016, 49: 33–39. DOI:10.2528/PIERM16050801 |
[3] | FEI P, FANG W H, WEN X, et al. State of the art and future prospect of the active millimeter wave imaging technique for personnel screening[J]. Journal of Microwaves, 2015, 31(2): 91–96. |
[4] | LECUN Y, BOTTOU L, BENGIO Y, et al. Gradient-based learning applied to document recognition[J]. Proceedings of the IEEE, 1998, 86(11): 2278–2324. DOI:10.1109/5.726791 |
[5] | GIRSHICK R, DONAHUE J, DARRELL T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]//Proceedings of 2014 IEEE Conference on Computer Vision and Pattern Recognition. Columbus: IEEE, 2014: 580 − 587. |
[6] | REN S Q, HE K M, GIRSHICK R, et al. Faster R-CNN: towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(6): 1137–1149. DOI:10.1109/TPAMI.2016.2577031 |
[7] | SERMANET P, EIGEN D, ZHANG X, et al. OverFeat: integrated recognition, localization and detection using convolutional networks[J]. arXiv: 1312.6229v4, 2014. |
[8] | KRIZHEVSKY A, SUTSKEVER I, HINTON G E. ImageNet classification with deep convolutional neural networks[C]//Proceedings of the 26th Annual Conference on Neural Information Processing Systems 2012. Lake Tahoe, 2012: 1106 − 1114. |
[9] | HE K M, ZHANG X Y, REN S Q, et al. Deep residual learning for image recognition[C]//Proceedings of 2016 IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas: IEEE, 2016. |
[10] | WANG C Y, BOCHKOVSKIY A, LIAO H Y M. Scaled-YOLOv4: scaling cross stage partial network[C]//Proceedings of 2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Nashville: IEEE, 2021: 13024 − 13033. |
[11] | DUAN K W, BAI S, XIE L X, et al. CenterNet: keypoint triplets for object detection[C]//Proceedings of 2019 IEEE/CVF International Conference on Computer Vision. Seoul, Korea (South): IEEE, 2019: 6568 − 6577. |
[12] | SHI S S, GUO C X, JIANG L, et al. PV-RCNN: point-voxel feature set abstraction for 3D object detection[C]//Proceedings of 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Seattle: IEEE, 2020: 10526 − 10535. |
[13] | 姚家雄, 杨明辉, 朱玉琨, 等. 利用卷积神经网络进行毫米波图像违禁物体定位[J]. 红外与毫米波学报, 2017, 36(3): 354–360. DOI:10.11972/j.issn.1001-9014.2017.03.018 |
[14] | 薛远亮, 金国栋, 侯笑晗, 等. 融合注意力机制与改进SSD算法的SAR舰船目标检测方法[J]. 计算机应用研究, 2022, 39(1): 265–269. DOI:10.19734/j.issn.1001-3695.2021.05.0174 |
[15] | 梅妍玭, 张得才, 傅荣. 基于形态学与多尺度空间聚类的SAR图像变化检测方法研究[J]. 光电子·激光, 2021, 32(11): 1140–1146. DOI:10.16136/j.joel.2021.11.0154 |
[16] | BOTTOU L, BENGIO Y. Convergence properties of the k-means algorithms[C]//Proceedings of Advances in Neural Information Processing Systems. Denver: MIT Press, 1995: 585 − 592. |
[17] | SIMONYAN K, ZISSERMAN A. Very deep convolutional networks for large-scale image recognition[C]//Proceedings of the 3rd International Conference on Learning Representations. San Diego, 2014. |