APP下载

网络应用程序分类的多样化组合特征选择算法

2021-03-30蒋胜利张文祥张军英

关键词:网络应用特征选择分类器

蒋胜利,张文祥,张军英

(1.洛阳师范学院 电子商务学院,河南 洛阳 471934;2.西安电子科技大学 计算机科学与技术学院,陕西 西安 710071)

0 引言

互联网高速发展,据中国互联网络信息中心(CNNIC)公布的数据,2020年1-6月,移动互联网接入流量消费达745亿GB(第46次中国互联网络发展状况统计报告,http://www.gov.cn/xinwen/2020-09-29/5548176/files/1c6b4a2ae06c4ffc8bccb49da353495e.pdf),各种各样的网络应用程序层出不穷。互联网的应用从简单的文字信息交流和门户网站的信息展示,发展到现在的游戏、视频、旅游等各种不同的网络应用程序。多样的互联网应用极大的丰富了人们的生活,随之而来网络流量的增大,使对网络环境的监控与管理要求越来越高,不仅需要分析网络流量,更需要对网络上所运用的应用程序进行实时分类,是较流量分析的更深层次分析的需要[1]。

本文的选题意义和价值表现在:所提出的方法能够快速高效地从数据中找出多样化网络应用的特征表示,并基于此对网络应用程序进行高质量分类,从而为对大量、多样、高速的网络应用环境的进一步分析、高效监督与有效控制,奠定基础和技术保障。

表1 部分特征名称及其含义

在对网络应用程序分类与识别这一问题上,当前使用报文解析的方式得到各种包含大量网络流量特征数据集,具体的流量特征及其含义部分示于表1中。针对这些网络流量特征,文献[2]提出了基于特征选择的业务流网络应用分类算法,但所选择的特征严重依赖于后续所采用的分类器的类型,从而不能表征和解释网络应用程序的特征;文献[3]提出了一种基于方差系数的特征选择方法,然后通过方差是在高斯分布假设下的统计量,而实际情况完全有可能违背这个假设。文献[4]针对网络流量的时间特征,提出了基于时间特征的网络应用程序分类算法,但这种只处理时间特征的方法忽略了非时间特征对分类结果的影响。随着深度学习在图像、自然语言处理、推荐算法等领域的成功应用,文献[5]提出了一种将网络流量特征转换为图像的深度学习框架来识别网络应用程序。这是一种具有革命性的创新,充分利用了深度学习在图像处理任务上的优势,但存在对硬件性能的要求较高、结果的可解释性差和高时间成本等劣势,不适于网络分析的实时性要求。

1 研究动机

对于数据科学家而言,大多希望通过模型的微调以获得模型的最佳性能,所以模型的可解释性被认为是实验改进的指导准则和方向,从而尽可能地得到最优的结果。而在工业界中,利用机器学习以及深度学习解决问题需要与用户建立信任关系,无论最终解决方案的目标是什么,终端用户都需要可解释、可关联或可理解的解决方案。网络应用程序分类任务,同样需要模型的可解释性作为网络流量相关业务的数据原理支撑,只有知道具体的每一个特征所代表的含义才能有的放矢的给出相应的解决方案。从表1可以看出,网络流量特征名称是清晰且有对应的含义的,但数据量大,所以常使用降低特征维度的方式来缩减数据量,以提高模型的分类效果、可解释性及泛化能力。

常用的降维方法有特征选择法[6]和特征提取法[7]。特征选择和特征提取方法存在同一个目标,即减少数据集中特征的数量,起到数据降维、提升模型学习效果的作用。但它们各自的原理和使用的技术不同:特征提取是通过原始特征的组合与计算获得新的特征,这些新特征不再具有原始特征的含义,从而用这些新特征训练的模型可解释性差,使这一方法在对解释性要求较高的场合并不适用;特征选择则从原始特征中选择对模型训练效果好的特征子集,由于原始特征的含义清晰,用决策树等解释性强的集成模型后,可明确分析出哪些特征对分类起正作用,哪些起负作用,从而仅用起正作用的特征进行分类,这对模型分类正确率和泛化能力的提升,以及对实际业务问题的分析有很大的帮助。

目前大多数网络应用程序分类采用特征选择方法,但是方法单一,效果不足,尤其是很多特征选择方法的性能严重依赖于其后续的分类器的选择,使所选择出的特征不能较好地表征网络应用程序的特性[8,9]。

实际上,特征选择至少有两个不同的目的[10],(1) 以分类目的,即选出最优的特征子集,使用在这个特征子集上的分类器可对样本进行最好的分类;(2) 以表征为目的,即选出的最优特征子集,能够对样本特性进行最好的表征。这两个目的既不同又联系,前者更强调分类性能,而分类性能常常与所选用的分类器有关,后者更强调表征性能,从而在此基础上的分类性能应基本与分类器的选用基本无关。一定程度上,以表征为目的的特征选择应是特征选择的最终目标,因为其对样本特性的优秀表征能力,使在此基础上的分类性能,应具有更为优秀的分类性能。

本文试图给出一种特征选择方法,以期选出的特征较少依赖后续分类器选择,从而能更好地表征网络应用程序的特征。为此,提出了一种多样化组合特征选择的网络应用程序分类算法FIRFEP(Feature Importance and Recursive Feature Elimination with Pearson Correlation Coefficient)。该算法组合了两种不同的特征选择方法(特征重要性筛选法和递归特征消除法),每种方法在具体方法上都体现了广泛的多样化的特点,并将这些方法选出的特征进行并运算并去除其中的冗余特征,且每种方法都采用了具有较好鲁棒性的算法,达到了最终选择出能更好表征网络应用程序特征的目的。与目前的3种主流特征选择算法和6种主流分类算法在网络应用程序分类的实验结果比较表明,算法在泛化性能和运行效率上都得到了明显提升,特别地,运行效率还得到了极大的提升,使对网络应用程序的实时监控成为可能。

2 FIRFEP算法

我们认为,现有各种特征选择方法,要么与分类器无关却用于分类时性能欠佳,要么与分类器有关却存在分类器偏好(即换种分类器的性能会较大幅度下降),难于反映数据中的本质特征。从这个意义上讲,充分利用好各种特征选择方法的优势,通过由它们选出的特征的组合,并去除相关特征,则更能反映数据本身的本质。从这个意义上讲,通过现有特征选择方法所选择出特征的多样性组合,是选出尽可能不存在分类器偏好的数据本质特征的重要途径。图1给出了FIRFEP算法的基本架构。

图1 多样化组合特征选择法基本框架

本文提出的多样化组合特征选择(FIRFEP)的原则是:第一,所采用的特征选择方法应尽可能不同,从而所选出的特征尽可能地形成优势互补;第二,对于分类器依赖的特征选择方法,其所依赖的分类器应尽可能不同,从而其所选出的特征构成不同的分类器依赖;第三,分类器的选取选用具有良好鲁棒性、泛化能力、易于对分类过程进行解释的树形结构分类器。这三点导致了特征选择的多样性。将这些方法选择出来的特征组合起来(通过并运算),有可能存在冗余特征,因此还需要去除它们之间具有相关特性的冗余特征,获得最终的特征选择结果。

特征选择方法通常分为过滤式(Filter)、包裹式(Wrapper)和嵌入式(Embedding)[10],其中每类方法的典型算法分别为方差选择法(Variance Threshold,VT)[11],递归特征消除法(FFE)[12]、基于逻辑回归带L1惩罚项的特征选择法(L1-based)[13]。鉴于以上原则,我们选用上述三种方法作为本文算法的特征选择基础算法,选用具有树形结构的鲁棒分类器GBDT[14]、XGBoost[15]、LightGBM[16]等作为本文算法的基础分类器。

FIRFEP算法分为两个阶段,第一阶段是分别使用基于特征重要性筛选法的N种特征选择方法和基于递归特征消除法中M种分类器方法对数据集中的特征分别进行初步筛选,并对筛选出的特征子集求取并集;第二阶段,采用皮尔逊相关系数法对第一阶段筛选出的特征集合进行特征相关性判断,丢弃具有高线性相关的特征,达到进一步删除冗余特征的目的,得到最终的特征选择集合,且所有的特征选择和分类器的选用都运用了具有良好鲁棒性和泛化能力的树结构模型。多种特征筛选方法的互补、多种分类器的互补,以及各类树模型分类器的良好鲁棒性和泛化能力,是本文提出的FIRFEP方法能够提取出良好特征的关键。

算法用基于特征重要性筛选法对单个重要的特征进行筛选,用基于递归特征消除法对联合起来重要的特征进行筛选。其中特征重要性筛选法执行效率高、可解释性强是首选的特征选择方法,但是存在手动指定特征筛选阈值而导致分类算法性能下降、容易丢失联合起来重要的特征的问题;递归特征消除法则较好解决了联合起来重要的特征筛选,但所选出的特征严重依赖于其中所选用的分类器类型。FIRFEP算法则将这两种方法结合,通过对选出特征的并集运算,使所选出的特征既可以满足高可解释性,又不丢失联合起来重要的特征,同时其性能又不依赖于所采用的分类器,从而能够更加客观地反映被识别目标的特性,并运用皮尔逊相关系数筛选法,通过丢弃特征线性相关性大于设定门限的冗余特征,达到进一步提升算法性能的目的。

RIRFEP算法的一个重要特点是特征选择的多样化,通过多样化的特征选择方法选出的特征的并集,并去除相关的特征,获取最终的特征选择结果。RIRFEP算法的基本原理具体如下。

2.1 特征重要性筛选

特征重要性也称为基尼重要性或基尼指数[17]。基尼指数与信息熵有类似特质,均可用来衡量信息的不确定性。依据基尼指数对特征进行筛选的方法在决策树模型建模时常常用到。决策树中的每个节点都是关于某个特征对样本划分的条件,通过计算不纯度来选择最优的决策条件。对于多个决策树来说,计算每个特征不纯度下降程度的总和,把它们的归一化值作为特征的重要性,基尼重要性公式如

(1)

其中N是样本总数,Nt是当前节点的样本数,NtR、NtL是当前节点右孩子、左孩子的样本数,impurity是当前节点的不纯度,即基尼指数,right_impurity、left_impurity是当前节点右孩子、左孩子的不纯度。

假设有K个类,每个样本都有其类标,对于某一样本,其属于第k类的概率pk可用属于这类的样本数占样本总数的比例来计算,则这一特征的基尼指数的公式如

(2)

特征的基尼指数越大,说明该特征对表征目标特性的重要性越大。

基于树模型的特征选择方法具有鲁棒性好、可解释性强、易于使用等特点,本文采用了3种较新的基于树模型的特征选择方法进行特征选择(分别是GBDT[14]、XGBoost[15]、LightGBM[16]),依据这些方法的特征重要性对特征进行排序获得其各自的特征选择结果,并将这些结果进行并操作,得到基于特征重要性的特征筛选结果。采用多种特征选择方法的主要考虑是,每种特征选择方法都有各自的偏向,而对这些方法各自选出的特征进行并操作则会使所获得的特征筛选结果具有很好的互补性。

2.2 递归特征消除法

Guyon等人在对癌症分类的基因选择研究中首次提出了递归特征消除法(RFE)[12],该方法通过对产生的特征子集按照分类中特征的重要性进行排序,可以删除冗余和无效的特征,提升分类算法的分类性能。

递归特征消除法是一种寻找最优特征子集的贪心算法,其主要思想是反复的构建分类器,对所有特征的特征重要性进行排序,去掉当前特征集中最不重要的特征或保留当前重要性最高的特征,然后在剩余的特征集上重复这个过程,直到减少特征会造成分类器分类性能损失或增加新的特征分类器但分类性能没有提升为止。这个过程最后留下的特征集合就是最终所选择的特征集合。RFE的具体过程为(1) 训练分类器,优化目标损失函数;(2) 根据特征重要性准则计算特征排名;(3) 移除特征重要性最低的特征或保留特征重要性最高的特征;(4) 重复上述步骤直到分类器性能不再提升或所有特征都已遍历。

文献[18]指出该方法严重依赖分类器本身来选择特征,选取的分类器不同,最终递归特征消除法得到的特征子集也会不同,从而所得到的特征子集不能客观反映各分类对象的特征。

本文采取多种不同的分类器来解决该方法对单一分类器的依赖,提高所选特征的泛化能力。鉴于树模型的分类器具有良好的鲁棒性,在运用RFE进行特征选择过程中,我们分别选用2个具有树结构的分类器(RF分类器[19]和极度随机树Extra Trees[20])进行分类,用基尼重要性对特征进行排序,并对选出的特征进行并操作,获得特征筛选结果。

2.3 皮尔逊相关系数法

通过对2.1和2.2中的特征筛选结果的进一步的并操作,得到一个特征子集。由于在2.1和2.2中均未考虑特征之间的相关性问题,然而特征子集中可能存在冗余特征,为此通过特征之间的相关性分析来进一步获得更加紧凑的特征子集。

皮尔逊相关系数法是一种最简单的、能帮助理解特征与特征之间统计线性关系的统计学方法[21]。该方法衡量的是变量之间的线性相关性,结果处于区间[-1,1],-1表示完全的负相关,+1表示完全的正相关,0表示没有线性相关性,其计算公式为

(3)

对进一步并操作后的特征子集,计算其中两两之间的皮尔逊相关系数,一旦其相关系数的绝对值超过一个门限,则仅取其中一个特征,从而最终获得更为紧凑的特征子集,作为本文提出的组合特征选择的最终特征选择结果。

3 实验与结果分析

实验数据为网上公开数据,实验内容包括各种特征选择方法选出特征后运用各类分类器进行分类的泛化能力(分类准确率)和识别过程的实时性(运行时间),目的是验证本文提出的FIRFEP方法所选出的特征,对各类分类器的适应性是否其分类准确率基本不受后续分类器类型选择的影响,从而是更具客观地反映识别对象的特征。

表2示出了实验环境,表3示出了实验中使用的部分超参数。这里重点报告两个实验的结果,实验1对比了本文FIRFEP算法与常用的特征选择算法在网络应用程序的识别与分类任务上,不同分类算法的准确率;实验2验证了FIRFEP算法在运行效率上的提升效果。

表2 实验环境

表3 分类模型的参数设置

3.1 实验数据

数据来源于哥伦比亚波帕扬考卡大学公开网络数据集[22],该数据总共收集了六天不同时段的共3,577,296个实例,其网络流的统计特征由CICFlowmeter[23]获得(IP地址,端口,到达时间等),网络应用层协议由ntopng[24](DPI深度报文检测)处理所获得,共计特征87个。每条数据都保存了由网络设备生成的IP流的信息,即源和目标IP地址,端口,到达时间,在该流上用作类的第7层协议(应用程序)等87个属性特征。大多数属性都是数字类型,由于有时间戳,也有字符串类型和日期类型。

本文旨在通过组合特征选择法分类基于网络流特征的具体应用程序,而不是简单地通过分析网络流五元组来识别网络应用程序,且每一个类别的各个特征与数据采集的时间无关,因此丢弃源IP地址(Source.IP)、目的IP地址(Destination.IP)、时间戳(TimeStamp)等特征。为了验证本算法得到模型的泛化能力和普适性,人工的选取了各个网络应用数据量差别较大、数据本身无缺漏且具有代表性的六类网络应用,分别是:'TWITTER','OFFICE_365','MS_ONE_DRIVE','EBAY','TEAMVIEWER','TWITCH'。它们涵盖了社交软件、办公软件、云端存储、购物应用、远程控制应用和在线直播等多方面网络应用程序。

3.2 实验设计

特征选择方法通常分为过滤式(Filter)、包裹式(Wrapper)和嵌入式(Embedding),我们选取了这三大类方法中每类方法的典型算法——方差选择法(Variance Threshold,VT),递归特征消除法(RFE)、基于逻辑回归带L1惩罚项的特征选择法(L1-based),与我们的方法进行比较,它们各选出的特征并分别用6种主流机器学习分类算法:KNN(k-Nearest Neighbor,K最近邻)、SVM(Support Vector Machine,支持向量机)、RF(Random Forest,随机森林)、GBDT(Gradient Boosting Decision Tree,梯度提升决策树)、XGBoost(eXtreme Gradient Boosting,极端梯度提升),LightGBM(Light Gradient Boosting Machine,轻量级的梯度提升器)进行分类,以考察本文提出的FIRFEP方法与其它特征选择方法以及对各类分类器的适应性,即是否分类器的分类性能基本保持较少受到分类器类型的影响。图2示出了比较实验的实验框架。其中,方差选择法(VT)[11]计算各个特征的方差,然后根据人工预定的阈值,选择方差大于阈值的特征。实验1中阈值为0.8;递归特征消除法(FRE)[12]中使用的是随机森林分类器进行特征消除,所有参数均为默认值;L1-based特征选择法[13]用基于逻辑回归带L1正则化项进行特征选择,其L1正则化法具有稀疏解的特性,天然具备特征选择的特性,实验中正则化系数C取为1。

3.3 评价指标

本文采用机器学习中的通用指标——准确率[25-28]对实验结果进行评价

(4)

图2 各种特征选择方法在各种分类器上的识别性能比较实验

其中TP(True Positive)被正确划分为正例的样本数;TN(True Negative)被正确划分为负例的样本数;FP(False Positive)被错误划分为正例的个数;FN(False Negative)被错误划分为负例的个数。

本文用每种分类算法的运行时间来衡量算法处理网络应用程序分类问题的实时性。

3.4 实验结果与比较

本文所提出的多样化组合特征选择方法FIRFEP,其在这组数据集上的具体做法如下。对数据集分别运用GBDT、XGBoost、LightGBM三种特征选择方法所获得的特征筛选结果如图3所示,其中图(a)、(b)、(c)分别为GBDT分类器、XGBoost分类器以及LightGBM分类器最终得到的特征重要性排序结果。这些结果中只包含了特征重要性大于平均特征重要性的特征,丢弃了其余特征,最终三种不同的决策树模型分别保留了15、26、20个特征。从图中可以看出,这三种不同模型保留的特征集合中部分特征相同,如“Source.Port”、“Flow.Bytes.s”、“Flow.Duration”等,但同时也存在单个特征集合独有的特征,如通过GBDT模型筛选出的“Subflow.Fwd.Bytes”特征、XGBoost模型筛选出的“ACK.Flag.Count”特征以及LightGBM模型筛选出的“Bwd.IAT.Total”特征。为提高算法筛选特征的容错率,本文采用将三组特征子集的并集作为特征重要性筛选法的结果,获得特征子集A,这一过程获得的A中共有28个特征。

图3 三种特征选择方法的特征重要性筛选结果及相应特征的特征重要性

(a) RF递归特征消除过程 (b) Extra Trees递归特征消除过程图4 递归特征消除过程示意图

对数据集运用RFE方法,其中的分类器分别选为RF分类器和Extra Trees所得到的特征集合,其识别准确率示于图4中,其中(a)为RF分类器的结果,(b)为Extra Trees分类器的结果。由图可知,RF分类器在保留9个特征后,分类器的分类性能就不再上升,Extra Trees分类器在保留了10个特征后分类器的分类性能就不再上升了。我们对这9个特征和这10个特征进行并操作,获得特征子集B。

将特征子集A与B进行并操作,并进行相关性分析,对于任两个特征变量,若其相关系数的绝对值超过设定门限(实验中门限设为1),意味着这两个特征在数学上存在严重的正或者负线性相关,那么这两个特征对应的实际含义从某种程度上来说是完全一样的,只保留其中一个特征,最终获得的特征子集记为C,其中共保留了33个特征。图5是经过相关性分析后的部分特征相关性热力图。

我们将所选出的33个特征与用其他典型的VT,RFE(其中的分类器选用RF)和L1-based等特征选择方法所选出的分别为32、10、22个特征在KNN、SVM、RF、GBDT、XGBoost、LightGBM等6种主流分类算法上进行了网络应用程序分类的实验和性能比较,分类准确率的实验结果示于图6中。由图可知,使用不同特征选择方法及不同的机器学习分类算法最终得到的分类准确率都不相同,其中KNN模型、RF模型、XGBoost模型使用VT特征选择法最终分类效果最好;SVM模型、GBDT模型、LightGBM模型使用L1-base特征选择方法最终分类效果最好;而RFE特征选择法在所有分类模型上最终分类结果表现都不是最佳的,这一实验结果验证运用特征递归消除法进行特征选择的结果高度依赖其中所使用到的分类器这一缺点,所以FIRFEP算法采取多种不同的分类器来解决递归特征消除法对单一分类器的依赖是很有必要的。使用本文提出的FIRFEP算法对数据集特征进行特征选择,在上述六种分类模型上均具是最好的表现,分类准确率上均有0.5%-3.0%的提升。

图6 FIRFEP算法与常用特征选择方法分类准确率对比图

图7 几种特征选择方法选择出的特征的分类性能比较

图7给出了不同的特征选择方法选择出特征用各个分类器进行分类的分类性能比较,其中Accuracy是分类的平均准确率,Variance是分类准确率的方差,从而图7反映了所选择出的特征对后续分类器的依赖情况。从图中可以看出,本文提出的FIRFEP特征选择方法,具有最高的分类平均准确率和最小的分类准确率方差,表明了使用所提出的FIRFEP方法,相对于其它特征选择方法,选出了最独立于后续分类器的特征。

表4示出各个分类器在运用本文提出的特征选择方法后的模型运行时间对比情况,可以看出,采用FIRFEP算法进行特征选择后再进行分类任务和不采用该方法直接进行分类任务相比,各机器学习分类算法进行分类的平均执行时间提升量达到了50%以上,最大执行时间提升量达到了近90%,极大的缩减了各分类模型在完成网络应用程序分类任务上的执行时间,提高了算法的实时性,能够更好适应对快速变化的网络环境进行实时管理的要求。

上述实验结果表明,本文提出的FIFREP算法,保留了与网络应用程序识别相关的重要特征,提升了分类模型在网络流量应用程序识别的识别性能,极大缩减了网络应用程序识别的实时性,有望在更大规模网络应用程序分类数据集上取得更好的效果。

表4 模型运行时间对比

4 结语

本文提出了一种组合特征选择法FIRFEP算法来实现网络应用程序的分类,其最大特点是:特征选择方法的多样性和分类器的多样性和鲁棒性。其中特征选择方法的多样性表现在:在基于特征重要性筛选时采用多种特征选择方法,在基于递归特征消除法进行特征选择时采用多种分类器;分类器的多样性表现在:所有分类器均选用 优良鲁棒性和泛化能力的树模型分类器(诸如GBDT、XGBoost、LightGBM、RF、Extra Trees等),并对所选择的特征进行并操作和相关性分析,保证了所选出的特征具有很好的互补性,既没有单一特征选择方法所导致的特征偏好,也没有单一分类器所导致的分类器偏好,从而能更加客观地反映网络应用程序的特征。

通过真实数据实验和测试,这种多样化组合特征选择法在网络应用程序识别这一任务中,具有良好的泛化能力、识别准确率及实时识别的性能,适用于用户量快速增长、环境日益复杂以及应用程序越发多元情况下对网络监控与管理的迫切需求,具有一定的实用性和有效性。进一步的研究包括开发新的特征选择方法以及特征中去除线性无关但是非线性相关的特征。

特征选择是机器学习的重要研究领域,如何从众多的特征中选出反映问题本质的特征,而较少或不受所采用技术的影响,多样化组合是重要解决方案,不仅对于网络应用程序分类问题,对于其它应用问题的特征选择,也有很好借鉴意义。

猜你喜欢

网络应用特征选择分类器
学贯中西(6):阐述ML分类器的工作流程
基于朴素Bayes组合的简易集成分类器①
泰国·曼谷
一种自适应子融合集成多分类器方法
基于智能优化算法选择特征的网络入侵检测
故障诊断中的数据建模与特征选择
reliefF算法在数据发布隐私保护中的应用研究
一种多特征融合的中文微博评价对象提取方法
浅谈多分类器动态集成技术
新媒体视阈下青少年网络应用行为探析