APP下载

基于差异特征的强化学习视频摘要

2020-03-18李巧凤

智能计算机与应用 2020年10期
关键词:关键帧状态特征

李巧凤, 赵 烨

(合肥工业大学 计算机与信息学院, 合肥 230009)

0 引 言

作为主要的多媒体信息载体,海量的视频丰富了我们的生活,也为科技的快速发展带来巨大机遇,但每天拍摄上传到网络上的海量视频,使得视频分析耗费大量财力。因此,迫切需要更加有效的信息组织,总结和分析的技术,了解在这个视频中哪个帧和镜头是不可或缺的。本文的目的就是通过强化学习机制处理包含差异特征的多路特征,来获取得分最高的视频帧子集,即所需的关键帧。考虑到基于差异特征获取关键帧的做法相对较少,本文的思路为视频摘要的获取方法做了补充,具有一定的学术价值,通过视频关键帧提取和视频结构化生成一个有着现实意义并且能够体现视频主要内容的结构大纲。有文献提出通过对大量视频搜索与检索可以满足对所需内容的有效需求[1],但是并没有提供实际视频内容的具体意义,很难快速找到所需的内容, 基于内容频率或非冗余虽然简单有效,但是却与视频的实时性缺少直接的联系;有文献提出的预测模型用于预定义的一组类别,还有将搜寻对象限制在有限的对象域将关键帧提取的效果进行了改进[2];有研究提出使用基于标题的图像搜索结果来寻找视频中的关键帧和重要镜头[3]。因为视频标题是通过挑选以最大程度的描述其主题,使用标题搜索的图像可以包含噪声(与视频内容无关的图像)和方差(不同主题的图像),其开发了共同原型分析技术,通过两个数据集TVSum和SumMe 的联合因子学习图像和视频之间共享的规范视觉概念,将视频摘要的质量极大地提高;有研究提出利用视觉线索、语义线索和上下文线索标签重要性预测模型[4]。采用结构支持向量机(structured support vector machine ,SSVM)公式,保证预测模型的有效训练。然后,利用正则相关分析(canonical correlation analysis,CCA)学习图像视觉特征与标签重要性之间的关系,获得鲁棒检索性能。深度视频摘要模型(deep summarization network , DSN),利用奖励机制提取视频摘要。逐渐出现的深层语意嵌入的视频摘要。提出了一种新的基于深度语义嵌入(DSSE)的视频摘要生成模型,该模型充分利用了视频摘要的边信息(标题,查询,描述),通过交互最小化两个单模态自编码器的语义相关损失和特征重构损失,可以更完整地学习视频帧与边信息之间的公共信息。有文献基于深度神经网络的软计算技术集成在一个两层的框架中来实现多视点视频摘要(MVS)[5]。主要的思路是首先在线层执行基于目标外观的镜头分割,并将其存储在一个查找表中,该查找表将被传输到云以进行进一步处理。第二层从查找表中序列的每一帧中提取深度特征,并将其传递给深度双向长短时记忆(DB-LSTM),获取信息量的概率,生成摘要;有文献引入视频帧的空间流RGB图像和空间流多帧运动矢量以及输入视频的时间信息来进行视频摘要[6];有文献提出一种基于聚类的多尺度以自我为中心的视频摘要与动作排序算法[7],可以一次运行中生成多个摘要,然后再以以自我为中心的视频中出现的行为动作进行优先级的排序来获得视频摘要。如何使提取的视频摘要质量高,多样性强。从这一问题入手,文章提出采用多路特征的卷积神经网络模型来优化选取视频帧子集的质量。

1 多路特征的方法

利用差异特征进行视频中关键帧的选取,本文提出了一种多路特征进行视频关键帧提取的架构。

1.1 动机

本文提出的包含差异特征的多路特征检测关键帧的方法包含了视频帧更多的特征信息。在提出的检测方法中,既着眼于提取出的视频的原特征,又侧重于处理两两视频帧之间显著性差异对象之间的差特征,通过使用多路特征网络模型来对视频进行关键帧的检测和选取,本文的多路视频摘要网络模型如图1所示。

图1 多路特征视频摘要网络

1.2 强化学习

强化学习是一种自学习系统,主要通过反复试验来学习,最终找到规律,达到学习的目的[8]。其关键要素为:智能体(agent)、环境(environment)、奖励(reward)、动作(action) 和状态(state),通过这些要素建立一个强化学习的模型,基本原理是:agent的某个行为策略导致环境正的奖赏增大,那么agent以后产生这个行为策略的趋势便会增强,agent的目标是在每个离散状态发现最优策略以使期望的折扣奖赏和最大。强化学习把学习看作试探评价过程,agent选择一个动作作用于environment,environment接受该动作后状态发生变化,同时产生一个强化信号(奖或罚)反馈给agent,agent根据强化信号和环境当前state再选择下一个action,选择的原则是使受到正强化reward的概率增大。本文将强化学习运用于视频摘要,通过判断选择关键帧的奖励的大小反过来影响采取该动作的概率。实验结果证明,在关键帧的提取上效果不错。强化学习模型如图2所示。

图2 强化学习模型

1.3 关键帧检测与提取

为了使关键帧检测模型效果好,需要一个好的关键帧解码器,本文采用端到端的编解码深度摘要网络,编码器是卷积神经网络CNN。文中用x=[x1x2...xt...xT]表示视频的帧序列特征,xt表示表示在第t帧的视觉特征,解码器使用的是性能突出的双向长短时记忆网络Bi-LSTM,把提取出的原始视觉特征[x1x2...xt...xT]送入Bi-LSTM,同时用xad表示经过处理的帧序列特征,xad=[x1-x2x2-x3...xt-xt+1...xT-1-xT],xad表示相邻帧序列之间差异的视觉特征,把处理后的整个视觉特征xad也完整地送入到Bi-LSTM,生成t时刻相应的隐藏状态ht, Bi-LSTM对信息的处理方式分为两个方向,前向状态和后向状态,它封装了当前帧过去的和未来的信息,经过Bi-LSTM处理后转换为表示向量v=[v1v2...vt...vT],与LSTM相连接的全连接层(fully connected layer,FC)以sigmoid函数为每一帧预测得分,p1表示的是原始视频帧的重要性得分,p2表示的是差异视频的重要性得分。作为该视频帧是否被选择的概率,σ代表sigmoid函数,通过伯努利函数B采取相应的动作,at表示所采取的动作,at=1表示第t帧被选取,为0则舍弃,式(1)~(4),实验结果如图3所示。

(1)

Pt=σ(FC(ht)).

(2)

Pall=p1+p2,

(3)

at~B(pall).

(4)

图3 实验结果

1.3.1 状态-动作值函数对agent的作用

评判视频摘要模型生成的摘要质量的高低,状态-动作值的大小就是很好的指标,由于强化学习的原理机制,状态-动作值越大,说明视频摘要生成的质量越高,这是一个不断学习的过程,以确保视频摘要的重要性和多样性。本文的模型中,重要性表示视频摘要对全文视频信息的覆盖能力,把它当做一个k-medoids问题,公式(5)所示:

E(xt)=min‖xt-xt′‖2,

(5)

其中,t和t′表示为非同一时刻,即最大重要性值可表示为式(6):

(6)

在视频摘要技术的发展过程中,已经提出了很多衡量视频摘要多样性的模型。本文通过特征空间所选帧之间的差异大小,来评估视频摘要多样性的高低。用S=[f1f2...ft...fT]表示所选的视频帧,则其两两之间的差异性,可以表示为式(7)和式(8):

(7)

(8)

视频摘要的属性判别也就是关键帧的属性判别。它的属性就是重要性和多样性公式(6)的Qi越高,代表重要性越强;同样道理公式(7)Qd越大,多样性的信息量就越丰富。

整个视频摘要用Qd与Qi的和状态-动作值函数Q(st,at)表示最大奖励(reward),选择的视频帧质量越高,深度摘要网络获得的状态-动作值越大,就会促使系统选取更多这样的视频帧,二者相辅相成,式(9)。

Q(s,a)=Qi+Qd.

(9)

1.3.2 策略梯度

在不同的状态(state)采取的动作(action)也就是策略梯度policy gradient。为了最大化状态-动作值,实验中用策略函数πθ和参数θ来最大化期望奖励,式(10)和式(11):

J(θ)=Epθ(a1:T)[Q(st,at)],

(10)

(11)

式中,at为采取的动作;st为隐藏层的状态;

pθ(a1:T)表示通过动作序列得到的概率分布。

为了方便计算避免个体的偏差,需要多次取样并利用均值提高其准确率,并在这里引入一个基准值b,其为状态-动作值的平均值,则公式(11)就变形为式(12):

(12)

参数θ的更新为公式(13):

(13)

其中,α为学习速率;β1和β2为平衡权重的参数,l决定选取的视频帧的百分比。

2 实 验

2.1 数据集

本实验依然是在2个公共基准数据集SumMe和TVSum做评估。SumMe数据集包含25个用户视频,视频的长度从1到6 min不等,记录了各种各样的事件,包括了运动、假期和烹饪等,且每个视频由15到18个人注释,每个视频有多个基本事实摘要(ground-truth)。TVSum收录了从YouYube的50个视频,每个时长2到10 min不等,数据集覆盖10类别,包括了动物美容、汽车轮胎和让汽车脱困等内容,而且TVSum可以提供帧级重要性分数。这些都是作为基本事实标签。在实验中随机将数据集分为训练集和测试集,其中训练集占比80%,测试集占比20%。

2.2 评价标准

实验结果采用目前通用方式计算F-score来评估本文提出的方法。即量化视频摘要与ground-truth之间的相似性,生成的视频摘要(A)和ground-truth (B)。精确度(P)和召回率(R)的公式定义式(14)和式(15):

(14)

(15)

F-score定义为式(16):

(16)

2.3 实验细节

本文对视频进行2帧/秒的速度采样到帧序列中,选择使用GooLeNet的pool5层的输出,在ImageNet上训练,实验中RNN单元的隐藏状态维数为256,epoch最大数量为60,达到这个数量,训练将停止。在实验中随机将数据集分为训练集和测试集,其中训练集占比80%,测试集占比20%。视频摘要的长度控制在原视频的15%。学习率为0.000 01。

2.4 实验结果分析

在SumMe数据集中video_8、video_20和TVSum数据集中video_33、video_42的实验结果如图4所示,红色的曲线表示真实得分(ground truth),蓝色表示的是本文的方法生成预测得分。从结果中可以得出本文方法的预测的得分与数据集中真实得分的曲线对比。通过多次的实验结果表明本文的方法预测出的分数曲线可以很好的去接近真实分数。

图4 SumMe和TVSum数据集实验结果

本文方法在SumMe和TVSum数据集上和其他方法的做了比较。在同等的实验条件下,由表格1的后两项实验结果可以看出,在SumMe和TVSum两个数据集上,本文的方法比原始单一特征的F-score分别提高了1%和将近2%,对于表1中所有的F-score值,在实际的操作中,以训练集和测试集所占的百分比为基准,表中的结果都是测试集的平均值。如在SumMe数据集中,计算的是5个视频结果的平均分为F-score值,在TVSum数据集中则是10个视频结果的平均分数。这充分说明了本文方法进行视频摘要的有效性。

同时,还可以看出本文的实验结果比目前绝大部分视频摘要方法有更好的性能指标。与表1中表现较好的GANdpp和DR-DSN以及DTR-GAN相比,虽然后者采用了LSTMs产生的网络对抗来进行视频摘要。但是文中的方法和其相比依然不差。对于DR-DSN来说,在SumMe和TVSum数据集上,F-score分别提高了4%和3%左右。与DTR-GAN相比也有1.4%和1.6%的提高。在和新近的Cycle-SUM和Reg比较时文中的方法依然有不错的表现。SUM-GAN-AAE因为有注意力机制的加入在SumMe数据集上表现要比文中的方法好,但是在TVSum数据集上,文中的方法在F-score依然有2%左右的提升。这充分说明基于差异特征的强化学习视频摘要方法更能全面有效的提取和利用原视频的信息。

表1 F-score实验结果对比

3 结束语

本文提出了一种基于差异特征的强化学习视频摘要的方法,阐述如何有效利用提取视频帧的图像特征,建立视频帧对象之间的联系,对视频帧包含的信息达到一个长期有效的记忆的方式。通过联合相邻帧间的差异信息来有效地进行关键帧提取,达到预期的实验效果。由实验结果可以看出,本文提出的方法在两个标准数据总体性能表现优越。

猜你喜欢

关键帧状态特征
离散型随机变量的分布列与数字特征
基于图像熵和局部帧差分的关键帧提取方法
抓特征解方程组
不忠诚的四个特征
智珠二则
基于误差预测模型的半自动2D转3D关键帧提取算法
生命的另一种状态
基于计算机三维动画建模技术的中国皮影艺术新传承
运动图像关键帧快速跟踪系统的改进
“牛顿第一定律”练习