APP下载

基于多层卷积神经网络的SAR图像分类方法

2018-07-09裴炳南常芳芳

探测与控制学报 2018年3期
关键词:分类器特征提取卷积

李 倩,裴炳南,常芳芳

(大连大学信息工程学院,辽宁 大连 116622)

0 引言

卷积神经网络(Convolutional Neural Network,CNN)兴起于20世纪90年代,但直到2012年,由于Krizhevsky 等人的工作才使CNN引人注目[1]。近年来,CNN已经成功应用于图像分类[ 1-3 ]、目标检测和车辆检测[4-5]等多种模式识别任务。对于图像分类,CNN与LeCun提出的两级架构基本相同[6],差异在于它们的配置、深度、单位数量和非线性函数的形式。在深度学习结构中卷积层作为特征提取器,使用卷积运算通过学习获得分层特征[2],最后形成多层感知分类器。Szegedy 等人[2]引入了22层CNN进行分类; 同时,Simonyan 等[3]设计了16层和19层CNN,成功用于图像识别。所有这些成功的案例都展示了CNN在特征提取或表征学习中相对于传统方法的优势和特色。

在对图像分类方面,CNN优于其他方法[7],它具有以下优点:1)具有类脑功能,将特征提取和识别过程融合在一起;2)局部感受域获取的特征与特征的平移、缩放和旋转无关;3)权值共享结构降低了网络模型的复杂度;4)下采样利用局部相关性原理,在有效减少数据处理量的同时保留了结构信息[8]。

最近,卷积神经网络(CNN)作为一种新方法用于雷达目标识别[9-10]。如J.Lunden 等人,采用了两层卷积神经网络结构,并应用于多基地雷达目标探测系统,实现了高分辨一维距离像的目标识别[7]。2016年,Sizhe Chen等人[11]提出用深度卷积网络对SAR图像进行目标分类的方法,该文通过采用稀疏连接的卷积网络,说明了利用少量训练数据集也能够避免过拟合,并得出很高的准确率。但卷积神经网络在训练的过程中卷积层数越多,训练越复杂,训练的时间越长,最终目标的分类识别率并没有很大的提高;同时,当卷积核参数设置的不同,实验结果也不同。为了更好的对SAR图像进行分类优化,本文利用卷积神经网络的拓扑结构,提出含归一化的多层卷积神经网络,直接对SAR图像源进行分类识别。

1 卷积神经网络的特征提取与分类方法

基本的CNN是由多层线性、非线性操作单元组合而成的一类深层网络,特点是层内神经元无连接,而层间神经元有连接,具有良好的结构化特性。如图1所示,CNN可分为卷积层(C)、下采样层(S)、全连接层、分类层。其中的卷积层和下采样层对应于传统模式识别中的特征提取。

1.1 卷积层

卷积层是卷积神经网络的核心组成部分。该层由一系列通过特定卷积规则获得的卷积核组成,不同的卷积核对应不同的目标特征。

在卷积层只有一个二维平面输入的情况下,卷积层的前向传播如下:

(1)

与一般的二维线性卷积不同。在CNN中,卷积运算规则为:对于—个大小为m×n的特征图,用大小为k×k的卷积核对其进行卷积操作,得到的输出特征图的大小为(m-k+1)×(n-k+1)[12]。图2示例这种情况:一个大小为5×5的卷积核与输入特征图8×8进行二维离散卷积操作,得到一个4×4的特征图。

为了使神经网络具有非线性的拟合性能,须要将得到的结果输入一个非线性的激活函数,通过该函数映射后最终得到卷积层的输出特征图。本文的非线性激活函数采用修正线性单元(Rectified Linear Units, ReLU),数学表达式为y=max(0,x)。它具有单侧抑制、较快的网络训练速度、稀疏性、有效缓解梯度消失等优点[13]。

1.2 下采样层

下采样层的作用是对卷积层输出的特征图进行采样,如图3示,采样层是以采样区域的大小为步长来进行扫描采样。下釆样操作是在二维方向(水平和竖直方向)图示以步长为s对特征图中的所有w×w大小的连续子区域进行特征映射,其中,1sw。一般情况下,s=w映射的过程通常为最大值映射或者是平均值映射,即在w×w的子区域中,选取最大值或者计算子区域中的平均值作为映射值。一个大小为m×n的输入特征图,经过w×h的尺度进行釆样之后,得到大小为(m/w)×(n/h)的输出特征图。通过子采样,减少了神经元的数目,简化了后续网络的复杂度,并且使得神经网络对输入的局部变化有一定的不变性,有效地模拟了灵长类动物视皮层复杂细胞[14]。本文采用最大池化(Max Pooling)方法进行下采样操作,操作简单、易于实现。

最大池化的表达式如下[15]:

(2)

式(2)中,sj表示第j块池化区域Rj的池化值,池化区元素值ai就是特征值经过激活函数送入池化区域的激活值,i是池化区每个激活值的编号。

1.3 分类器PHam

分类规则利用贝叶斯后验概率最大化。经过卷积神经网络逐层提取得到的特征可以输入任何对于权值可微的分类器。这样使得整个卷积神经网络可以采用梯度下降法等基于梯度的算法进行全局训练。本文采用softmax分类器。因其可以直接对多类目标进行分类,且分类效果较好[16]。

softmax输出分类结果同时可以根据输出结果转换为分类概率值,非常适合处理多分类问题。softmax对于 k 类分类问题的系统方程为:

(3)

softmax代价函数数学表达式为:

(4)

式(4)中,1{.}表示指示性函数,当括号里的值为真时,函数的结果为 1,当括号里的只为假时,函数的结果为 0。

1.4 测试过程识别率

训练结束之后形成训练模板,对测试集进行分类识别,识别率η表示为:

(5)

式(5)中,y表示测试集总数,x表示算法正确识别的数据个数。

2 改进方法及实验方案

2.1 局部响应归一化层

(6)

2.2 实验数据

实验采用美国国防部预研计划署和空军研究实验室联合资助的运动和静止目标获取与识别(MSTAR)计划录取的实测SAR地面静止目标数据。MSTAR数据由 X 波段、HH 极化方式、0.3 m×0.3 m 高分辨率聚束式 SAR 对地面目标采集而得。目标方位角覆盖 1°~360°,间隔 1°,该数据库通用是 SAR ATR 研究领域的一个标准数据库。本实验选取其中的BMP2(步兵战车)(SN_9563)、BTR70(装甲运输车)、T72(主战坦克)(SN_132)、ZSU23/4(自行高炮)、ZIL131(货运卡车)五类目标数据做实验,目标示例如图4示。

实验仿真采用Matlab 2017b平台里的Neural Network Toolbox工具箱,CPU主频2.6 GHz,内存8 GB。本文方法预处理要求将输入图像统一中心裁剪为128×128像素,具体型号与样本个数如表1所示,可直接实现从输入像素和输出类别的端到端处理。

2.3 实验模型

本文提出了基于卷积神经网络的 SAR目标识别方法,采用的卷积神经网络结构如图1所示,但在除最后一次卷积外,每一次卷积层后都有一个归一化层。数据流程图如图5所示。该分类模型是一个结构化的卷积层( convolution) 、局部响应归一化层( normaliztion) 、池化层( pooling) 等的多层单元,这些层可视为一系列线性和非线性操作的特征提取过程,而全连接层、softmax层和分类层可视为一个基于回归的多类分类器。

针对五类目标识别问题,借鉴了文献[17]的数据设置,具体网络结构图如图6所示。第1个卷积层采用28个尺寸为 29×29卷积核,第2个卷积层采用32个7×7 的卷积核,第3个卷积层采用56个5×5的卷积核。ReLU函数被应用于每一个卷积层作为神经元的激活函数。且每两层卷积层之间用尺寸为2×2,步长为2最大池化层连接。

表1 实验所用数据型号和数量

Tab.1 The data model and quantity of the experiment

数据个数BMP2BRT70T72ZIL131ZSU23/4总数训练数据个数(俯仰角17°)2322322322322321 160测试数据个数(俯仰角15°)195196196195195977

3 实验结果与分析

3.1 训练过程

在进行训练时设置学习率为0.001,局部响应归一化层的窗口通道尺寸为4。

图6是经二层卷积层后获得的BMP2的特征图。

图7是图6特征图经过局部归一化后的特征图。从图6到图7可以看出特征图里的特征片减少,达到降维的作用。

图8为图7经过最大池化后的特征图。图9为分别训练每一类目标所获得的训练模板。图中(a),(b),(c),(d),(e)分别是经过第三个卷积层提取的BMP2、BTR70、T72、ZIL131、ZSU_23_4的特征模板。

经过十六次仿真训练所得到的迭代次数与平均正确率之间的关系如图10示,迭代次数为256次。图11为十六次试验求均方误差所得关系图,从图中可以看出随着迭代过程均方误差逐渐减少,最后稳定在一个很小值范围内。

3.2 测试过程

图12为采用CNN 对五类目标的分类混淆矩阵,其中对角元素为正确分类的目标个数,非对角元素为错分的目标个数。由图12可知: 1) 该方法达到 98.26%精度,且在T72上每次测试都取得了100% 的分类精度; 2)该方法对 BMP2错分为T72、ZIL131错分为ZSU_23_4的个数最多。从外形上来说,坦克和步战车都有炮口,以至于出现错分多,但坦克有大口径炮,步战车只有小口径炮,所以出现错分目标可能由这几类目标的几何外形差异引起的。

实验如上步骤进行训练测试操作十六次,所得的分类正确率在区间[97.34%,98.26% ]范围内。表2为进行训练测试操作十六次求平均所得,由表2可知: 该方法平均正确率达到 97.77%精度,同时求得95%的置信区间为[97.60%, 97.93%]。

表2 五类目标测试十六次平均分类混淆矩阵

Tab.2 The five kinds of targets test the 16-time average classification confusion matrix

目标类型BMP2BRT70T72ZIL131ZSU23/4平均正确率/(%)BMP2182.6250.12512.250093.65BRT700.937 5194.8130.250099.39T720019600100ZIL131000189.255.7596.57ZSU23/4001.937 50.562 5192.598.72总计-----97.77

4 结论

本文提出了基于多层卷积神经网络的SAR图像分类方法。该方法采用多层卷积运算和下采样技术以及神经元的非线性功能,逐层萃取分类特征,同时利用局部响应归一化进行特征的降维,以softmax作为分类器。实现了基于多层卷积滤波的目标特征自主选择,并最终实现了 SAR目标的自动分类识别。实验方法用MSTAR数据库的五类目标数据进行仿真实验,经过仿真实验表明,本文的方法是有效的通过,统计平均识别率达到了97.77%。有关与其他方法的比较将另文讨论。

参考文献:

[1]Krizhevsky A, Sutskever I, Hinton G. ImageNet classification with deep convolutional neural networks[J].

International Conference on Neural Information Processing,2012,60(2):1097-1105.

[2]Szegedy C, Liu W, Jia Y Q, et al. Going deeper with convolutions[J]. IEEE Transactions on Information Theory, 2006, 52(4):1289-1306.

[3]Simonyan K,Zisserman A. Very deep convolutional networks for large-scale image recognition[J]. Computer Science, 2014.

[4]Girshick R, Donahue J, Darrell T, et al. Rich feature hierarchiesfor accurate object detection and semantic segmentation[J]. IEEE Computer Society, 2014:580-587.

[5]Chen X Y, Xiang S M, Liu C L,et al. Vehicle detection in satellite images by hybrid deep convolutional neural networks[J]. IEEE Geoscience and Remote Sensing Letters, 2014, 11(10): 1797-1801.

[6]LeCun Y, Bottou L, Bengio Y, et al. Gradient-based learning applied to document recognition[J]. Proceedings of the IEEE, 1998, 86(11):2278-2324.

[7]Lund J, Koivunen V.Deep learning for HRRP based target recognition in multistatic radar systems[C]// IEEE Radar Conference ,2016: 1-6.

[8]尹宝才, 王文通, 王立春. 深度学习研究综述[J]. 北京工业大学学报, 2015, 41(1): 48-59.

[9]Morgan D A E. Deep convolutional neural networks for ATR from SAR imagery[J]. Algorithms for Synthetic Aperture Radar Imagery XXII, 2015.

[10]Profeta A, Rodriguez A, Clouse H S. Convolutional neural networks for synthetic aperture radarclassification[J]. Spie Defense Security, 2016.

[11]Chen S Z , Wang H P , Xu F ,et al. Target classification using the deep convolutional networks for SAR images[J]. IEEE Transactions on Geoscience and Remote Sensing, 2016, 54(8):4806-4817 .

[12]LeCun Y , Kavukcuoglu K, Farabet C. Convolutional networks and applications in vision[J]. IEEE International Symposium on Circuits & Systems, 2010,14(5):253-256.

[13]Nair V. Hinton G E. Rectified linear units improve restricted boltzmann machines[J]. International Conference on International Conference Machine Learning, 2010:807-814.

[14]Hubel D H,Wiesel T N. Receptive fields, binocular interaction and functional architecture in the cat’s visual cortex[J]. The Journal of Physiology,1962,160(1):106-154.

[15]Goodfellow I, Bengio Y, Courville A. Deep Learning[M]. USA: The MIT Press, 2016.

[16]何鹏程. 改进的卷积神经网络模型及其应用研究[D]. 大连:大连理工大学, 2015.

[17]张慧,肖蒙,崔宗勇. 基于卷积神经网络的SAR目标多维度特征提取[J]. 机械制造与自动化,2017,46(1):111-115.

猜你喜欢

分类器特征提取卷积
学贯中西(6):阐述ML分类器的工作流程
基于3D-Winograd的快速卷积算法设计及FPGA实现
一种并行不对称空洞卷积模块①
基于朴素Bayes组合的简易集成分类器①
基于动态分类器集成系统的卷烟感官质量预测方法
空间目标的ISAR成像及轮廓特征提取
基于Gazebo仿真环境的ORB特征提取与比对的研究
基于特征提取的绘本阅读机器人设计方案
从滤波器理解卷积
一种自适应子融合集成多分类器方法