APP下载

联合低秩表示与图嵌入的无监督特征选择

2019-10-19滕少华冯镇业滕璐瑶房小兆

广东工业大学学报 2019年5期
关键词:特征选择准确率局部

滕少华,冯镇业,滕璐瑶,房小兆

(1. 广东工业大学 计算机学院, 广东 广州 510006;2. 维多利亚大学 应用信息中心, 维多利亚州 墨尔本 VIC 3011)

在许多现实应用场景中, 数据样本的维度总是很高. 比如人脸识别[1]、手写字符识别[2]、生物信息学分析[3]、视觉跟踪[4]等[5-7]. 然而高维数据数据量大, 且通常含有大量冗余、噪声, 因此会降低学习算法的性能[8]. 为了解决这些问题, 人们通常采用降维方法对数据进行预处理.

近些年提出了许多降维方法, 可分为特征选择[9]和特征提取[10]两大类. 特征提取通过将数据投影到低维子空间来减少数据维度. 由于低维子空间与原数据样本空间没有直接联系, 提取特征难以对应数据原有特征. 特征选择通过直接选择原数据特征的子集作为降维后的特征. 这能保持数据原有特征, 降维后的数据具有很好的解析性. 这在许多应用中是很重要的, 例如基因分类[11]、文本分类[12]等.

从利用标签信息的角度来看, 特征选择算法可以分为监督学习[13]、半监督学习[14]和无监督学习[15].监督学习和半监督学习在某种程度上依赖于标签信息, 通过标签信息评估结果来选择特征. 然而, 许多实际应用是在没有标签的情况下收集大规模数据.标记这些无标签数据非常昂贵且耗时[16]. 因此, 无监督特征选择对于许多实际应用更具普遍性和挑战性.

Cai等[17]提出了多簇特征选择(MCFS), 通过谱分析捕获局部流形结构, 然后选择能够最好地保留聚类结构的特征. Nie等[18]提出了灵活流形嵌入(FME),FME作为降维的一般框架, 被许多特征选择方法所采用. Hou等[19]基于FME和l2,1范数, 提出了联合嵌入学习和稀疏回归(JELSR), 给出了特征选择的一般框架. Li等[20]联合使用FME、非负约束和l2,1范数来实现非负判别特征选择(NDFS). Qian等[21]提出了鲁棒的无监督特征选择(RUFS), RUFS使用FME、非负矩阵分解(NMF)和l2,1范数同时实现鲁棒的聚类和特征选择. Shi等[22]提出联合FME和l1范数实现的鲁棒谱特征选择(RSFS). Nie等[23]提出了联合结构最优图和局部结构的结构最优图特征选择(SOGFS). 上述方法取得了显著的效果, 但在选择特征中并没有考虑到选择特征后数据的低秩子空间结构, 可能会使算法过分依赖局部结构, 导致对噪声数据敏感. 本文通过引入低秩表示不仅保留了转换空间后样本的全局结构, 而且学习其低秩子空间, 极大地降低了噪声的影响. 并且自适应学习样本间的局部结构, 将全局结构学习、局部结构学习和特征选择融合到一个框架中同时进行.

因此本文通过结合低秩子空间学习和自适应图嵌入方法, 提出了一个联合低秩表示与图嵌入的无监督特征选择方法. 本文主要贡献在于: (1)提出了一种保留选择特征局部结构方法, 同时考虑到选择特征的低秩子空间, 使其选择特征后数据具有低秩性质, 从而提高方法的鲁棒性; (2)选择特征的局部结构自适应学习, 无需预先计算, 从而选择最合适模型的局部结构.

1 相关工作

1.1 低秩子空间学习

低秩表示假设原始数据可分解成多个独立子空间来近似表示, 从而发现数据本质结构中, 其子空间最低秩的表示[24]. 给定数据集X=[x1,x2,···,xn]∈Rd×n, 其中xi∈Rd为数据集中的某个样本. 本文构建一个字典D=[d1,d2,···,dm]∈Rd×m来重构数据集X,使得X=DZ, 其中Z为重构系数矩阵,Z=[z1,z2,···,zn]∈Rm×n. 通过对Z添加低秩约束, 其目的是为了寻找其最低秩解, 因此上述模型如下:

上述问题是NP难问题, 难以直接求解. Candès等[25]通过使用核范数来代替低秩约束, 可转换为如下凸优化问题:

其中 ||.||∗表示矩阵的核范数, 即矩阵奇异值之和. 使用原数据X作为字典, 式(2)可转化为

其中α为正则项参数.

1.2 图嵌入方法

随着谱分析和流形学习的发展, 许多无监督特征选择方法通过保留样本间的局部流形结构均取得较好的结果. 这表明局部结构在特征选择过程中具有重要作用. 本文利用自适应过程来确定保持局部关系的相似矩阵. 给定数据集X=[x1,x2,···,xn]∈Rd×n. 其中xi∈Rd可被其他样本xj通过概率pij表示,其中pij为相似矩阵P∈Rn×n的元素. 任意两个样本作为邻居的概率可以看作它们之间的相似性. 因此较近的样本应具有较大的概率, 即pij与xi和xj之间的距离成反比. 因此相似矩阵P可由式(4)求解:

2 联合低秩表示与图嵌入的无监督特征选择

2.1 JLRRGE模型

根据上述子空间学习方法和自适应局部结构学习方法, 由式(3)和式(4)可得:

式(5)中, 第一部分为低秩子空间学习,Xzi为样本xi在低秩子空间下重构样本. 对于整个重构后的数据XZ, 其低秩结构能更好地还原数据的本质结构,降低噪声对数据影响. 第二部分为自适应局部结构学习, 自适应学习数据的局部相似性矩阵P, 使其保留原有的局部流形结构.

根据式(5), 本文提出一种联合低秩表示与图嵌入的无监督特征选择学习, 如式(6)所示:

其中W∈Rd×c为特征选择矩阵,c为选择特征的维持,β,γ为正则化参数. 上述模型的第一和第二项通过低秩表示学习样本在转换空间后的低秩子空间, 并保留了样本的全局结构. 其中在重构系数矩阵Z的低秩约束下, 重构后的样本能极大降低噪声样本的影响.并且W具有行稀疏, 能极大降低噪声或冗余特征的影响. 通过引入低秩表示重构数据, 同时降低了噪声样本、噪声特征以及冗余特征对特征选择的影响. 第三和第四项自适应学习样本间的局部流形结构, 保留了样本间的局部结构.

2.2 模型优化

式(6)中W,Z,P均未知, 很难直接求出目标函数的最优解. 因此本文使用增广拉格朗日乘子法(ALM)来尝试求解目标函数的最小值, 如式(7)所示:

其中Y1,Y2和Y3为拉格朗日乘子, µ1为惩罚参数. 式(7)可通过不精确拉格朗日乘子法(IALM)求解.

IALM在求解最小值过程中, 在每一步中更新一个变量, 同时固定其他变量不变. 并依次迭代更新所有变量直到收敛. 主要的求解步骤如下:

1) 更新W. 在式(6)中对W求偏导数可得

其中G=XLXT+γDW,DW为对角矩阵且第i个对角元素为

2) 更新Z. 对Z求偏导数可得

其中F=2XTWWTX.

3) 更新P. 对P求偏导数可得

其中

4) 更新T. 对T求偏导数可得

其中υ1/µ1(X)=USτ(Σ)V是关于奇异值τ的阈值算子,Sτ(Σij)=sign(Σij)max(0,|Σij−τ|)为软阈值算子,X=UΣV为X的奇异值分解.

5) 更新Q. 对Q求 偏导数可得

6) 最后更新拉格朗日乘子和惩罚参数:

其中ρ>0为迭代步长, µmax为常数.

2.3 时间复杂度

上述优化过程中时间复杂度分析如下: 第1步为特征值分解问题, 其运算矩阵的大小d×d, 所以时间复杂度为o(d3); 第2步中矩阵求逆需要o(n3); 第4步中的时间复杂度为o(n3). 因此整个优化算法的时间复杂度为o(τ(d3+2n3)),其中τ为算法优化过程中的迭代次数.

2.4 收敛性分析

在本节中, 将JLRRGE运行1-最近邻分类器(NN). 在2个数据集上运行本文所提方法, 以显示其收敛性质, 包括JAFFE 和MFEA数据集. 当所有变量和分类准确率都稳定, 则该算法趋于收敛. 在上述优化过程中, 使用变量Q和T来分别逼近变量P和Z. 本文认为当Q接近于P且T接近于Z时, 所有变量趋于稳定. 因此定义了如下目标函数:

在上述两个数据集上运行本文所提方法并进行100次迭代, 并在图1中显示了目标函数值、分类精度和迭代之间的关系.

图 1 数据集JAFFE和MFEA收敛性实验Fig.1 Convergence experiments on JAFFE and MFEA datasets

由图1可知, 随着迭代次数的增加, 目标函数整体上不断减少且分类准确率整体上不断升高, 并在一定迭代次数后趋于稳定. 在JAFFE数据集中目标函数值先上升后下降, 可能是由于在优化过程中, 随机初值所造成的影响. 总体而言, 由目标函数值和分类准确率曲线可知本文提出的方法具有较强的鲁棒性, 能够快速逼近局部最优解, 并具有良好的收敛性.

3 实验

本文所提出的JLRRGE将与4种具有代表性的特征选择算法如拉普拉斯评分的特征选择(Laplacian Score, LS)、多类簇特征选择(MCFS)、无监督判别特征选择(UDFS)和最优结构图的特征选择(SOGFS)进行详细对比.

3.1 实验数据集

本文使用以下5个常用数据集, 如表1所示.

COIL数据集包含20个对象, 每个对象有72个样本, 共1 440个样本. 样本以5度为间隔从同方向进行捕获, 所有图像被调整为1 024个像素.

表 1 数据集信息Tab.1 Summary of the benchmark data sets

ORL数据集包含40个对象, 每个对象拍摄10幅图片, 共400张图. 每个对象在不同的时间、光照、面部表情(睁/闭眼、微笑/不微笑)和面部细节(是否戴眼镜)下拍摄, 所有图像被调整为32×32个像素.

JAFFE数据集包含213张7种面部表情的图像,包括6种基本面部表情和1种中性表情.

UMIST数据集包含575张20人的图像. 每个人从侧面到正面都摆出一系列姿势, 而且他们来自不同的种族. 这些文件都是PGM格式, 灰度为256个阴影.

MFEA数据集包含一系列的手写数字(0~9), 这些数字是从一组荷兰实用地图中提取的. 一幅图像的大小为15×16像素.

3.2 参数设置与评价指标

本文实验对每个数据集做4组对比实验. 每组实验在每一类中分别随机抽取10%、20%、30%和40%作为训练样本, 其余作为测试样本. 在训练过程中, 每组实验选取特征数目分别为c= {10, 20, 30, 40,50, 60, 70, 80, 90, 100}. 最终结果运行在1-最近邻分类器(NN)中验证本文算法的性能.

对于LS和MCFS算法生成的近邻矩阵时, 参数k统一设置为5. LS热核计算权重矩阵W时, σ 取值1.UDFS和SOGFS中参数γ设置为{10−3, 10−2, 10−1, 1, 10,102, 103}. 本文提出的算法JLLRGE中参数α, β , γ均设置为{10−3, 10−2, 10−1, 1, 10, 102, 103}.

此外, 算法的鲁棒性也是需要考虑的范畴. 由算法目标函数可知, 参数α 和β对优化过程起重要作用.本文在各数据集抽取10%作为训练样本的情景下,随机固定参数λ和选择特征个数, 在不同的参数α 和β下, 进行实验并记录其对应的准确率, 结果如图2所示.

3.3 实验结果与分析

3.3.1 COIL20数据集

由表2可知, JLRRGE在随机抽取20%的训练样本的实验中, 比MCFS的分类效果略差. 其余情况均取得较好的分类结果, 且整体分类效果比其他对比算法好.

图 2 各数据集的参数敏感实验Fig.2 Parameter sensitivity on different datasets

表 2 不同算法在COIL数据集上的分类准确率Tab.2 Aggregated classification results measured by accuracy of the compared methods on COIL %

由图2(a)可知, 当α ∈[0.001,10]时, JLRRGE取得较好的结果. 当α ∈[10,1000]时, JLRRGE分类性能略微下降. 整体上, JLRRGE在数据集COIL中对参数α 和β 的变化并不敏感, 即JLRRGE对于数据集COIL具有较好的鲁棒性.

3.3.2 ORL32数据集

由表3可知, 除了在抽取20%作为训练样本的情况, JLRRGE均取得最好的分类结果.

由图2(b)可知, 当α ∈[0.001,1]时, 取得较好的结果. 当α ∈[10,1 000]时, 分类准确率骤降. 即过于注重ORL数据的全局结构, 而导致其分类准确率下降. 由此表明参数α的变化对JLRRGE在数据集ORL上的分类效果具有较大的影响.

表 3 不同算法在ORL数据集上的分类准确率Tab.3 Aggregated classification results measured by accuracy of the compared methods on ORL %

3.3.3 JAFFE数据集

由表4可得, JLLRGE在JAFFE数据集上, 对于不同百分比的训练样本, 均取得较好的效果.

由图2(c)可得, 当α ∈[0.001,100]时, JLRRGE取得较好的结果. 当α ∈[100,1 000]时, JLRRGE分类性能略微下降. 整体上, JLRRGE在数据集JAFFE上具有较强的鲁棒性, 对参数α 和β并不敏感.

表 4 不同算法在JAFFE数据集上的分类准确率Tab.4 Aggregated classification results measured by accuracy of the compared methods on JAFFE %

3.3.4 UMIST数据集

由表5可知, JLRRGE的整体分类性能略差于MCFS, 仅在随机抽取10%训练样本的情况下取得较好的分类结果.

表 5 不同算法在UMIST数据集上的分类准确率Tab.5 Aggregated classification results measured by accuracy of the compared methods on UMIST %

由图2(d)可得, 当α ∈[0.001,1]时, JLRRGE取得较好的结果. 当α ∈[1,1 000]时, JLRRGE分类性能略微下降. 整体上, JLRRGE在数据集UMIST对参数α 和β并不敏感.

3.3.5 MFEA数据集

由表6可得, JLRRGE在各情况下均取得较好的分类结果.

表 6 不同算法在MFEA数据集上的分类准确率Tab.6 Aggregated classification results measured by Accuracy of the compared methods on MFEA %

由图2(e)可得, 当α ∈[10,1 000]时, JLRRGE分类性能略微下降. 整体上, JLRRGE在数据集MFEA对参数α和β并不敏感, 具有较强的鲁棒性.

4 结束语

本文提出了一种新颖的无监督特征选择方法.通过低秩表示选择具有低秩结构的特征, 使选择的特征更具鲁棒性. 同时结合图嵌入方法, 自适应学习数据的局部相似性矩阵, 使数据降维后仍保留其局部流形结构. 实验表明, 本文所提的方法比其他对比方法在绝大部分情况下均取得更好的分类结果, 并且该方法具有良好的鲁棒性. 在未来将尝试优化模型的复杂度, 减少模型的训练时间.

猜你喜欢

特征选择准确率局部
局部分解 巧妙求值
爨体兰亭集序(局部)
非局部AB-NLS方程的双线性Bäcklund和Darboux变换与非线性波
乳腺超声检查诊断乳腺肿瘤的特异度及准确率分析
不同序列磁共振成像诊断脊柱损伤的临床准确率比较探讨
2015—2017 年宁夏各天气预报参考产品质量检验分析
高速公路车牌识别标识站准确率验证法
Kmeans 应用与特征选择
局部遮光器
联合互信息水下目标特征选择算法