欢迎光临小豌豆知识网!
当前位置:首页 > 物理技术 > 测量测试> 三维全息成像安检雷达图像异物检测方法独创技术16235字

三维全息成像安检雷达图像异物检测方法

2021-02-10 13:38:35

三维全息成像安检雷达图像异物检测方法

  技术领域

  本发明涉及全息成像安检技术领域,特别是涉及三维全息成像安检雷达,具体地提供一种三维全息成像安检雷达图像异物检测方法。

  背景技术

  随着社会经济的发展,机场、火车站、地铁、汽车站等公共交通枢纽迎来了越来越多的客流和物流,这些区域的安检等级既要排除安全隐患以保证公共安全,又要满足快速通过的高检测效率。传统的异物检测方法主要是利用金属探测、X射线成像等安检技术,它们已经逐渐不能满足安检需求。欧美发达国家逐渐采用全息成像雷达在机场等用于安检,特别是用于旅客的人身安检。全息成像雷达是指全方位三维成像雷达,通常采用柱面孔径,主要应用于人体安全检测。

  现有技术中,中国专利CN201410738076.4公开了一种人体安全检查设备,包括供被检查人站立的基座、毫米波收发装置和金属感应检测装置,所述毫米波收发装置用于对站立在基座上的被检查人的身体进行毫米波扫描以检测被检查人是否携带违禁物品并输出第一信号,所述金属感应检测装置设置在基座内用于检测被检查人的鞋底部中是否存在金属异物并输出第二信号;中国专利CN201911308084.4公开了一种全息成像方法,采用一维X射线多层膜波导结构,将两个长度相同的一维X射线多层膜波导结构正交胶合,使两个一维X射线多层膜波导结构的间隙部分正交配合,以形成二维X射线多层膜波导结构并用于全息成像。

  三维全息成像安检雷达是新发展起来的安全检测技术,目前,国内外在三维全息成像安检雷达图像异物检测方面,主要以借鉴常规光学图像目标检测方法为主;由于雷达图像受相干斑噪声以及观测视角的影响,常规用于光学图像目标检测与识别的训练、验证和测试方法的适用性受到一定程度的限制。

  发明内容

  本发明所要解决的技术问题是针对现有技术存在的缺点,提供一种三维全息成像安检雷达图像异物检测方法。

  本发明引入无锚点神经网络模型,将三维雷达图像目标检测数据映射至不同维度的特征向量训练收敛的无锚点神经网络模型,可以大为减少神经网络模型提取的预测框的数量,降低模型的计算复杂度;同时,通过多层次的三维雷达图像特征提取方式,提高对图像场景中物体的识别率,降低虚报率。

  本发明解决其技术问题所采取的技术方案是:三维全息成像安检雷达图像异物检测方法,其特征在于,包括以下步骤:

  步骤1:获取三维雷达图像目标检测数据;

  步骤2:将所述三维雷达图像目标检测数据输入至训练收敛的无锚点神经网络模型,获取所述无锚点神经网络模型输出的三维雷达图像异物检测结果。

  优选地,所述三维雷达图像目标检测数据包括三维雷达图像数据和真实检测框的坐标数据。

  优选地,所述三维雷达图像异物检测结果包括各个金属异物类别的平均精度、所有金属异物类别的平均精度均值和推理时每秒帧率。

  优选地,所述无锚点神经网络模型的训练收敛包括以下步骤:

  步骤S1:将所述三维雷达图像目标检测数据划分为训练集、验证集和测试集,所述训练集包括训练数据,所述验证集包括验证数据,所述测试集包括测试数据;

  步骤S2:对所述训练集的训练数据进行数据增强;

  步骤S3:分别利用所述数据增强的训练数据和所述验证集的验证数据对初始无锚点神经网络模型进行训练和验证,获取训练收敛的无锚点神经网络模型;

  步骤S4:获取所述训练收敛的无锚点神经网络模型输出的针对所述测试集的测试数据的处理结果,所述处理结果包括三维雷达图像异物检测结果。

  更优选地,所述训练集、验证集和测试集的划分比例为Ntrain:Nverif:Ntest,Ntrain、Nverif和Ntest分别表示训练集、验证集和测试集的百分比,Ntrain+Nverif+Ntest=1,且Ntrain>Nverif>Ntest。

  更优选地,所述数据增强的方法包括随机旋转、随机抖动、尺度缩放和随机采样。

  更优选地,所述初始无锚点神经网络模型用随机参数初始化的方式获取,或从其他训练数据上的训练得到的模型作为初始模型。

  更优选地,步骤S3中获取训练收敛的无锚点神经网络模型包括以下步骤:

  步骤S31:将无锚点神经网络模型共分为k层,每层都对输入的三维雷达图像目标检测数据进行升维编码操作,把原有的三维雷达图像目标检测数据的通道数从C0逐步升至高维Cj,Cj>C0,j=1、2、3...k,在每一层,不同的三维雷达图像目标检测数据得到对应的不同维度的特征向量;

  步骤S32:将无锚点神经网络模型中每一层的特征向量划分为前景特征向量和背景特征向量;

  步骤S33:对所述前景特征向量进行分类操作,把无锚点神经网络模型中每一层的特征向量通过分类器进行分类,输出每个前景特征向量分别属于各个类别的概率向量;

  步骤S34:对每个前景特征向量进行回归操作,把无锚点神经网络模型中每一层的特征向量输入至一个全连接神经网络,输出(x,y,z,w,h,θ),(x,y,z)为中心点的直角坐标,w为预测的检测框的宽度,h为预测的检测框的长度,θ为在俯视视角下预测的检测框的方向;

  步骤S35:通过分类损失函数和回归损失函数对总的损失函数进行调整,通过对该损失函数进行优化,更新无锚点神经网络模型的权重;

  步骤S36:每隔一定的训练轮数进行一次验证,把在所述验证集的所有类别的平均精度均值指标最高的模型作为最终训练收敛的无锚点神经网络模型。

  进一步地,所述三维雷达图像目标检测数据包括三维雷达图像数据和真实检测框的坐标数据;所述三维雷达图像目标检测数据中的原始数据位于所述真实检测框的外部,则其特征向量被划分为背景特征向量;所述真实检测框根据外边距定义获得第一检测框,所述三维雷达图像目标检测数据中的原始数据位于所述真实检测框的内部但位于所述第一检测框的外部,则其特征向量被划分为背景特征向量;所述三维雷达图像目标检测数据中的原始数据位于所述第一检测框的内部,则其特征向量被划分为前景特征向量。

  进一步地,所述无锚点神经网络模型包括分类器和回归网络,步骤S35中的分类损失函数由所述分类器输出,步骤S35中的回归损失函数由所述回归网络输出。

  本发明通过采用的训练收敛的无锚点神经网络模型,可以大为减少神经网络模型提取的预测框的数量,降低模型的计算复杂度,并且使最终预测的检测框具有良好的伸缩性,有助于提升尺度变化较大的物体的识别效果;同时,通过多层次的三维雷达图像特征提取方式,还能够让神经网络模型获得更加充足的语义信息,有利于对图像场景中物体进行检测识别。

  附图说明

  图1为本发明所述的三维全息成像安检雷达图像异物检测方法的流程示意图;

  图2为本发明所述的无锚点神经网络模型的训练收敛的流程示意图;

  图3为无锚点神经网络模型的整体框架;

  图4为本发明所述的划分前景特征向量和背景特征向量的判断示意图。

  具体实施方式

  为使本发明实施例的目的、技术方案和优点更加清楚明白,下面结合附图对本发明实施例做进一步详细说明。在此,本发明的示意性实施例及其说明用于解释本发明,但并不作为对本发明的限定。

  如图1所示,本发明所述的三维全息成像安检雷达图像异物检测方法,包括以下步骤:

  步骤1:获取三维雷达图像目标检测数据;

  所述三维雷达图像目标检测数据作为待处理数据,所述三维雷达图像目标检测数据包括三维雷达图像数据和真实检测框的坐标数据;

  优选的,三维雷达图像数据可以为三维复图像数据,也可以为三维幅度图像数据;

  优选的,步骤1包括:

  步骤101:获取三维雷达单视复图像数据Image(x,y,z),x、y和z分别表示图像的坐标,并对三维雷达单视复图像数据Image(x,y,z)进行相干斑噪声滤除,相干斑噪声滤除可以采用Lee滤波器、增强Lee滤波器、Kuan滤波器、Sigma滤波器和自适应滤波器,获得滤波后的三维雷达单视复图像数据ImageFi(x,y,z)。

  步骤102:图像数据保存,若保存为三维复图像数据,则直接对ImageFi(x,y,z)和对应的(x,y,z)坐标数据进行存储,合并存储为SaveImageFi(x,y,z);若保存为三维幅度图像数据,则直接对ImageFi(x,y,z)取模后得到AmpImageFi(x,y,z),并与对应的(x,y,z)坐标数据进行存储,合并存储为SaveImageFi(x,y,z);

  步骤103:三维雷达图像目标检测数据获取,获取3DImageFi(x,y,z)和真实检测框的坐标数据,合并存储为三维雷达图像目标检测数据3DImageFi(x,y,z)。

  步骤2:将所述三维雷达图像目标检测数据输入至训练收敛的无锚点神经网络模型,获取所述无锚点神经网络模型输出的三维雷达图像异物检测结果;

  所述三维雷达图像异物检测结果包括各个金属异物类别的平均精度(AP,AveragePrecision)、所有金属异物类别的平均精度均值(mAP,mean Average Precision)和推理时每秒帧率(FPS,Frame Per Second);所述平均精度AP用于衡量各个类别的金属异物的目标检测精度,对于检测精度都较低的类别,可深入分析和模型构建,提升单个类别的检测精度;所述平均精度均值mAP用于衡量所有类别的金属异物的目标检测精度;所述推理时每秒帧率FPS用于衡量异物检测算法的时效性;所述金属异物类别可以举例为打火机、道具等;

  本发明通过采用的训练收敛的无锚点神经网络模型,可以大为减少神经网络模型提取的预测框的数量,降低模型的计算复杂度,并且使最终预测的检测框具有良好的伸缩性,有助于提升尺度变化较大的物体的识别效果;

  其中,所述无锚点神经网络模型的训练收敛包括以下步骤:

  步骤S1:将所述三维雷达图像目标检测数据划分为训练集、验证集和测试集;

  所述训练集包括训练数据,所述验证集包括验证数据,所述测试集包括测试数据;优选所述训练集、验证集和测试集的常用划分比例为Ntrain:Nverif:Ntest,Ntrain、Nverif和Ntest分别表示训练集、验证集和测试集的百分比,Ntrain+Nverif+Ntest=1,且Ntrain>Nverif>Ntest。默认比例为0.5:0.3:0.2;当然,也可根据实际数据量等因素人为划分。

  步骤S2:对所述训练集的训练数据进行数据增强;

  所述数据增强的方法包括随机旋转、随机抖动、尺度缩放和随机采样等,通过数据增强可提升训练数据量,从而降低模型训练过程中发生模型过拟合的可能性;

  步骤S3:分别利用所述数据增强的训练数据和所述验证集的验证数据对初始无锚点神经网络模型进行训练和验证,获取训练收敛的无锚点神经网络模型;

  所述初始无锚点神经网络模型可用随机参数初始化的方式获取,也可以从其他训练数据上的训练得到的模型作为初始模型;

  获取训练收敛的无锚点神经网络模型通常以一定训练时长内的验证集的精度为指征判断收敛情况,若一定时间内验证集的精度变化小于一定阈值(通常为人为指定),则表明模型收敛。

  在本发明中,步骤S3中获取训练收敛的无锚点神经网络模型包括以下步骤:

  步骤S31:将无锚点神经网络模型共分为k层,每层都对输入的三维雷达图像目标检测数据进行升维编码操作,把原有的三维雷达图像目标检测数据的通道数从C0逐步升至高维Cj,Cj>C0,j=1、2、3...k,在每一层,不同的三维雷达图像目标检测数据得到对应的不同维度的特征向量;

  如图3所示,所述无锚点神经网络模型包括主干网络、分类器和回归网络;

  步骤S32:将无锚点神经网络模型中每一层的特征向量划分为前景特征向量和背景特征向量;

  如图4所示,所述三维雷达图像目标检测数据中的原始数据104位于所述真实检测框100的外部,则其特征向量被划分为背景特征向量;

  所述真实检测框100根据外边距(margin)定义获得第一检测框101,所述三维雷达图像目标检测数据中的原始数据103位于所述真实检测框100的内部但位于所述第一检测框101的外部,则其特征向量被划分为背景特征向量;所述三维雷达图像目标检测数据中的原始数据102位于所述第一检测框101的内部,则其特征向量被划分为前景特征向量;

  步骤S33:对所述前景特征向量进行分类操作,把无锚点神经网络模型中每一层的特征向量通过分类器进行分类,输出每个前景特征向量分别属于各个类别的概率向量;

  其中,所述概率向量V=(P1,P2,…,PM),M为总的类别数;

  步骤S34:对每个前景特征向量进行回归操作,把无锚点神经网络模型中每一层的特征向量输入至一个全连接神经网络,输出(x,y,z,w,h,θ),(x,y,z)为中心点的直角坐标,w为预测的检测框的宽度,h为预测的检测框的长度,θ为在俯视视角下预测的检测框的方向;

  步骤S35:通过所述分类器输出的分类损失函数和所述回归网络输出的回归损失函数对总的损失函数进行调整,通过对该损失函数进行优化,更新无锚点神经网络模型的权重;

  本发明采用公式(1)所示的多分类交叉熵(cross-entropy)作为所述分类损失函数,公式(1)如下:

  

  本发明采用公式(2)所示的Smooth L1作为所述回归损失函数,σ为超参数,公式(2)如下:

  

  总的损失函数进行调整时引入调节系数λ,调节公式如下:

  L=Lcls+λLreg

  步骤S36:每隔一定的训练轮数T进行一次验证,把在所述验证集的所有类别的平均精度均值(mAP)指标最高的模型作为最终训练收敛的无锚点神经网络模型;

  其中,所述训练轮数T可以人工设定,也可以依据训练时长、训练图像数量等进行自动设定;

  步骤S4:获取所述训练收敛的无锚点神经网络模型输出的针对所述测试集的测试数据的处理结果,所述处理结果包括三维雷达图像异物检测结果。

  本发明通过多层次的三维雷达图像特征提取方式,还能够让神经网络模型获得更加充足的语义信息,有利于对图像场景中物体进行检测识别。

  以上内容是对本发明所述的三维全息成像安检雷达图像异物检测方法作出的进一步详细说明,并非对本发明的范围进行限定,在不脱离本发明构思的前提下,本领域普通技术人员依据本发明的技术方案做出的各种变形和改进,均应视为属于本发明的保护范围。

《三维全息成像安检雷达图像异物检测方法.doc》
将本文的Word文档下载到电脑,方便收藏和打印
推荐度:
点击下载文档

文档为doc格式(或pdf格式)