APP下载

一种话题敏感的抽取式多文档摘要方法

2017-03-12应文豪李素建穗志方

中文信息学报 2017年6期
关键词:文档语义卷积

应文豪,李素建,穗志方

(北京大学 计算语言学教育部重点实验室,北京 100871)

0 引言

抽取式多文档摘要的核心问题是合理地建模句子,正确地判断句子重要性。为了能够正确地判断句子内容的重要性,研究者通过分析句子在原文出现的位置、句子词汇的词频等方法[1],抽取启发式特征建模句子,度量句子的重要性。尽管这些启发式特征十分简单,但是在抽取式摘要任务上表现出了良好的效果。

另一方面,句子与话题的语义关联对于句子重要性的计算也是十分重要的。话题是对一组相关事件的抽象概述,文章通过组织若干主、次要话题表达其主旨。在抽取摘要时,分析句子所属话题以及句子与话题之间的关系,有助于找到能够概述原文的摘要句。Chambers等指出事件具有框架结构,在事件框架下存在若干事件槽或事件角色,描述了该框架最主要的几个方面[2-3]。例如,在“爆炸”话题对应的事件框架下,“犯罪者”“作案工具”“伤亡”等就是爆炸事件框架下的事件槽,表达爆炸事件最核心的信息。因此,在建模句子时,有必要从语义上分析句子是否描述了话题关注的内容,考虑句子在特定话题下的重要性。

1 话题敏感的抽取式多文档摘要

1.1 基本思想

话题所概述的相关事件具有事件框架结构,在框架结构内存在若干事件槽,这些事件槽描述了事件框架最核心的内容。表1给出了“爆炸”话题对应的事件框架和部分事件槽的示例。

表1 爆炸话题的事件框架及事件槽示例

在爆炸话题对应的事件框架下,“犯罪者”和“作案工具”事件槽提供了是谁使用哪种工具造成爆炸事件的信息,“目标、受害者”事件槽给出了爆炸事件导致的后果,这三个事件槽基本覆盖了爆炸事件的主要内容。事件的框架结构说明,某个话题下存在一些重要的事件槽,这些事件槽是整个话题的核心组成部分,因而可以选择描述这些事件槽下行为的句子概述文章中该话题的主要内容。

由此,本文提出一种话题敏感的抽取式多文档摘要方法,建模句子是否描述话题的重要内容,从而判断句子的话题重要性。本文不显式地抽取事件的框架结构,而是直接分析句子语义,判断句子是否描述话题的重要内容。由于词频、位置等启发式特征缺乏语义信息,在建模句子时首先使用卷积神经网络学习句子的语义表示,然后通过隐狄利克雷分配模型[4]推断句子的话题,并在此基础上计算句子的话题重要性。

1.2 基于卷积神经网络的句子语义表示

近年来,通过卷积神经网络建模句子语义,在文本分类[5]、自动摘要[6]、情感分析[7]等众多自然语言处理任务上取得了良好的效果。本文在文献[8]的基础上,使用多个不同大小的卷积窗口识别短语概念,学习句子的语义表示。

对于长度为n的句子,vj∈Rd是句子第j个词的词向量,si:i+h-1∈Rh×d是连续h个词的词向量矩阵。窗口大小为h的卷积操作定义如式(1)所示。

其中,ci是学习到的卷积特征,W∈Rh×d是卷积核,b是偏置项,f表示用于抽取特征的非线性变换函数,·是元素乘操作。卷积核可以视作特征识别器,用于发现滑动窗口内出现的某类短语概念。依次在句子所有可能的窗口位置上施加卷积,得到句子在卷积核下的概念特征向量[c1,c2,...,cn],接着使用最大池化操作得到句子在当前卷积核下最显著的概念特征,其形式化描述如式(2)所示。

1.3 基于LDA的句子话题推断

本文采用隐狄利克雷分配模型(Latent Dirichlet Allocation, LDA)推断句子的话题分布。LDA是一类用于挖掘数据内隐含组结构的统计生成模型。对于文本而言,LDA模型能够发现句子内的话题结构。LDA模型建模话题时,使用一组预定义数目的话题组织文本内容,每个句子都有关于这些话题的概率分布。这种话题建模方式类似概率化的隐语义分析[9],不同之处在于LDA在话题分布上额外增加了狄利克雷共轭先验,即描述话题结构的先验知识。同样地,对于话题下的词汇分布也有类似的共轭先验存在。

LDA模型描述了文本的生成过程。每个句子都有自己的话题分布,可根据话题分布选择每个词位所属的话题,然后根据话题的词汇分布生成句子的单词。图1给出了LDA模型的概率图模型表示。

图1 LDA模型的概率图表示

在LDA的概率图表示中,α是句子话题分布的狄利克雷共轭先验分布的参数,β是话题下词汇分布的狄利克雷共轭先验分布的参数,θ表示句子的话题分布,φ是话题的词汇分布,z和w分别是词位的话题标签和对应的单词。图中矩形框表示重复的图结构,嵌套结构中最外层的矩形框对应句子,内部的矩形框对应每个词汇和它的话题。最上层的矩形框是多个话题的词汇分布。

在估计LDA模型参数时,以文章为单位同时推断文章的话题分布、话题的词汇分布以及文章词汇的话题。而在推断句子的话题时,固定先前学习到话题的词汇分布,只需要推断句子的话题分布以及句子内词汇的话题标签,推断得到的句子话题分布[P(t1|s),P(t2|s),...,P(tK|s)]∈RK将用于计算句子的话题重要性。

1.4 句子话题重要性

话题的事件框架结构表明,事件槽对应的内容是话题下更加重要的内容,给出了话题的主要信息。一篇文章通过组织若干话题表达其主旨,如果找到描述话题下事件槽对应内容的句子,则可以作为摘要句用于概述原文。但是,相比语义角色标注、句法分析等句级语义分析任务,抽取事件框架结构需要对文档集内文章进行篇章级语义分析,推断相关事件以及事件之间的框架结构,是十分困难的。对于抽取式摘要任务,其目标是选择表达重要信息的句子概述原文,因而只要能够判断句子是否描述了话题重要内容,并不需要直接抽取话题的事件框架结构,就可以确定句子所属的事件槽。

为此,本文设计了一个神经网络NETtopic计算句子的话题重要性。NETtopic首先通过1.2节定义的卷积神经网络架构学习句子的语义表示r,然后基于LDA推断得到句子话题分布,计算句子话题重要性。网络对每个话题t学习一个用于给句子打分的权重向量wt,判断句子内容对于当前话题是否重要。每个话题重要性得分通过计算句子语义向量r和权重向量wt的内积得到,句子的话题重要性得分由式(4)计算。

scoretopic=[,,...,]

(4)

另一方面,由于句子的话题是通过无监督的LDA模型推断得到的,只有部分话题对应实际上重要的事件。为了区分这些主、次要话题,增加额外的一组参数u∈RK表示话题本身的重要性,使用话题权重给句子的话题重要性得分加权,得到:

weighted_scoretopic

=[u1×score1,u2×score2,...,uK×scoreK]

(5)

由于句子可以同时表达多个话题,使用LDA模型推断得到话题分布,规范化话题的重要性得分,得到句子最终的综合话题重要性,如式(6)所示。

1.5 特征集设计与打分模型

除了句子的话题重要性特征,位置、词频等启发式特征也能够有效地用于度量句子的重要性。因此,本文设计了一组启发式特征,并结合话题重要性得分给句子打分。打分模型采用的启发式特征集详见表2。

表2 打分模型采用的启发式特征集

为了判断句子的重要性,本文使用一个简单的两层网络NETscore作为打分模型。这个两层网络仅包含输入层和输出层,构成一个线性函数。NETscore的输入是句子的话题重要性得分和启发式特征,句子的重要性得分由式(7)计算得到,其中n是特征数:

本文使用一个统一的神经网络组合NETtopic和NETscore,学习句子语义表示并计算话题重要性以及给句子打分。在训练时,通过反向传播算法同时调整网络各个部分的参数。

2 半监督模型训练

整个神经网络模型包含两个待学习的部分,分别是计算话题重要性的网络NETtopic和线性打分网络NETscore。由于现有摘要任务的参考摘要规模有限,为了能够有效地训练神经网络模型,本文提出一种利用大规模未标注新闻语料的半监督训练方法。在半监督训练框架下,神经网络的训练分成两个阶段。首先,使用少量人工标注和大量未标注的新闻语料预训练计算句子话题重要性的NETtopic。然后,针对具体多文档摘要任务,使用DUC提供的语料生成训练数据,同时调整两个网络的参数。

2.1 预训练模型

本文使用Cheng等[11]自动标注的CNN新闻语料预训练NETtopic。他们在一个规模约几百篇的人工标注新闻语料上训练分类器,判断句子是否应该包含在摘要内。然后,他们使用这个分类器自动标注了约八万篇CNN的新闻文章,文章中的每个句子被分为应该(标记1)、可能(标记2)和不应该(标记0)包含在摘要这三类。为了构造训练数据,随机地从每篇文章标记为1和标记为0的句子中采样,分别将标记1和标记0的句子作为用于排序学习的训练句对的正、负例。本文使用这种方式生成约600万个句对,训练NETtopic。预训练时,直接使用NETtopic输出的话题重要性作为句子得分,计算句对的排序概率,然后最小化交叉熵调整网络参数。在预训练阶段的损失函数如式(9)所示。

其中,m是用于排序学习的句对数,损失函数的第一部分是排序损失,第二部分是L2正则化项。

2.2 精调模型参数

DUC2001~DUC2004是经典的多文档摘要任务,每年提供文章和参考摘要作为评测数据。但是这些语料规模十分有限,每年的数据仅包含几十个文档集,约几百篇文章。本文仅使用这些语料作为精调NETtopic和NETscore参数的训练数据和评测系统的测试数据。在实验中,DUC2001和DUC2002两年的文章用于生成训练数据,根据句子关于参考摘要的unigram召回率,以0.05为区间,不同区间的两个句子构成一个训练句对。训练时,使用上一阶段预训练的NETtopic初始化网络参数。DUC2003被用作开发集,采用early stopping策略,当开发集上的句对分类准确率持续下降时即停止训练。

为了避免在精调阶段模型参数变化过大,精调阶段的损失函数额外带有一个正则化项‖θ-θpre-train‖。其中,θpre-train是预训练结束时的网络参数,θ是当前模型参数。这个正则化项的目的在于避免精调时参数变化过大,丢失了NETtopic在预训练时学习到的信息。完整的损失函数由式(10)定义。

3 实验设计与结果分析

3.1 实验设计

本文使用word2vec在Gigawords语料上训练词向量,词典包含约74万个单词。由于整个词向量的参数规模很大,在训练神经网络模型时,固定词向量减少需要训练的模型参数,避免导致过拟合。训练采用ADAM算法[12],同时使用Dropout[13]减少模型在小规模数据集上过拟合的风险,完整的模型参数配置见表3。

表3 模型参数配置

续表

在选择句子生成摘要时,采用类似MMR[14]的贪心句子选择方法,在上一步打分结果的基础上对句子重排序,其形式化描述如如式(11)所示。

其中,S是当前已生成的摘要,s和si分别是待选择的句子和摘要句。sim是句子相似度函数,实验中采用句子之间的词共现率。λmmr是相似度罚项系数,本文直接选择λmmr=0.5。

3.2 结果分析

实验中比较了多个常用的基准多文档摘要模型(FreqSum、TsSum、Centroid、LexRank、Greedy-KL)[1,15-17]以及DUC2004任务上当年参赛的最好结果(Peer 65)[18]。由于不同方法在评估时采用了不同的数据集或者使用了不同的评测指标,为了能够合理地与这些方法进行比较,本文采用Hong等[19]在DUC2004数据集上的评测结果,复现或直接引用这些基准模型的结果,使用统一的ROUGE[20]参数评测各方法。

为了验证本文提出的句子话题重要性特征的作用,实验中采用多组不同的特征集训练模型。模型1仅使用全部启发式特征直接在DUC2003和DUC2004上训练,得到基于启发式特征的基本摘要模型BasicSum。模型2结合话题重要性特征和启发式特征,然后直接在DUC2003和DUC2004上训练,得到话题敏感的摘要模型TSSM。模型3直接使用LDA推断得到的话题分布计算句子的话题重要性,然后结合启发式特征在两年DUC数据集上训练,得到TSSM(Topic_Dist)。模型4在半监督框架下使用全部特征训练,得到半监督话题敏感的摘要模型Semi-TSSM。本文直接引用Hong等论文中的ROUGE-1和ROUGE-2召回率评测结果,使用相同的ROUGE配置评测HSM、TSSM、TSSM(Topic_Dist)和semi-TSSM,具体实验结果见表4。

表4 DUC2004多文档摘要结果

Peer65是DUC2004正式参赛队伍中的最好结果,采用隐马尔科夫模型(HMM)建模句子之间的关系选择摘要句。尽管没有使用复杂的句子选择方法,BasicSum已经在ROUGE-2召回率上超过了Peer65。在实验中除了常用的词频特征,我们还考虑了命名实体、数字等词和短语的类型,实验结果验证了这类特征的有效性。

可以看到,半监督话题敏感的Semi-TSSM模型取得了最高的ROUGE-2召回率,同时ROUGE-1召回率也有接近最好的结果。模型采用的启发式特征主要通过统计词的类型、频率等作为句子内容重要性的指示。而本文提出的话题重要性特征则是从另一个角度,考虑句子与所属话题的语义关系,判断句子是否描述了话题的重要内容。对比仅使用启发式特征的BasicSum,增加话题重要性特征后明显地提高了摘要系统的性能,说明话题重要性特征能够作为传统启发式特征的有效补充。

另一方面,直接在DUC2001和DUC2002上训练话题敏感的摘要模型TSSM效果不佳,仅ROUGE-1召回率略有提升,而ROUGE-2召回率有所下降。可能的原因是句子内容与话题的语义关系比较复杂,在小规模数据集上无法学习到通用的模式,因而容易导致模型训练时出现过拟合。

我们也注意到,直接使用LDA的话题分布计算句子话题重要性的TSSM(Topic_Dist)效果并不理想。相比仅使用启发式特征的BasicSum,在ROUGE-1和ROUGE-2的召回率上仅有略微提升。这是因为话题本身是一个十分抽象的概念,不考虑句子的内容而直接使用话题分布估计话题重要性,无法体现同一个话题下不同内容的重要程度。因此,在建模句子的话题重要性时,需要同时考虑句子所属的话题以及句子的内容,判断句子是否描述了重要话题下的重要内容。

为了直观地说明话题重要性特征的作用,表5给出了Semi-TSSM的线性打分模型权重最高的前六个特征。从表5可以看到,话题重要性对句子打分的结果影响很大,其在打分模型中的权重位于所有特征中的第三位。注意到词汇在文档集内的TFIDF是一类十分有效的特征,事实上具有高TFIDF的词汇可以视作文档集的主题词。这些词汇在文档集内反复出现,而又较少出现在其他文章中,因而这些词汇通常描述了文档集主题的相关信息。

表5 线性打分模型权重最高的前六个特征

本文提出的话题重要性特征可以视为一种度量句子的话题先验重要性的方法,这里的先验指的是仅根据单独的句子判断是否描述了话题的重要内容,事先不需要知道句子所在的篇章信息。另一方面,句子与文档(集)的话题一致性也值得关注,因为适合作为摘要的句子同时应描述了文档(集)的主要话题。为此,我们使用LDA同时建模句子和文档集的话题概率分布,并通过KL散度度量两者的差异。表6给出了增加话题一致性的摘要模型Semi-TSSM在DUC2004数据集上的实验结果。

表6 句子与文档集的话题一致性对摘要结果的影响

尽管相比只使用话题先验重要性特征,模型在ROUGE-1召回率上略有下降。但是,考虑句子与文档集之间的话题一致性后明显提高了ROUGE-2召回率。这说明生成摘要时从话题层面需要同时考虑两方面的内容: 一方面,句子是否描述了某些话题的重要内容;另一方面,句子的话题是否与文档(集)的话题一致。

在句子选择过程中,本文采用贪心的句子选择算法,为了分析不同λmmr对摘要结果的影响,分别设置λmmr从0.1到1.0,抽取了DUC2004数据集的多文档摘要,图2给出不同λmmr设置下的ROUGE-2召回率变化曲线。

图2 不同λmmr的ROUGE-2召回率变化

从图2中发现,不同λmmr的设置对最终摘要结果的影响很大,过高或者过低的λmmr都将降低摘要质量。这是因为过低的λmmr会在摘要内引入更多的冗余内容,而过高的λmmr可能会排除包含重要信息但是又与当前摘要部分内容重合的长句。

4 结论

本文提出了一种计算句子话题重要性的方法。与传统启发式特征不同的是,该方法从另一个角度分析句子与话题之间的语义关系,判断句子是否描述话题的重要内容。实验结果表明: 话题重要性特征能够作为传统启发式特征的有效补充,提升文档摘要质量。在自动摘要任务中,模型训练面临缺乏参考摘要的问题,结合排序学习和大规模未标注语料的半监督训练框架是一种有效的解决方法。同时,我们发现在贪心的句子选择算法中相似度惩罚系数λ对最终摘要结果影响很大,因此在后续的工作中有必要进一步研究有效的全局优化方法,改进贪心的句子选择过程。

[1] Nenkova A, Vanderwende L, Mckeown K. A compositional context sensitive multi-document summarizer: exploring the factors that influence summarization[C]//Proceedings of the 29th Annual International ACM SIGIR Conference on Research and Development in Information Retrieval. ACM, 2006: 573-580.

[2] Chambers N, Jurafsky D. Template-based information extraction without the templates[C]//Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies-Volume 1. Association for Computational Linguistics, 2011: 976-986.

[3] Chambers N. Event Schema Induction with a Probabilistic Entity-driven Model [C]//Proceedings of the EMNLP. 2013(13): 1797-1807.

[4] Blei D M, Ng A Y, Jordan M I. Latent Dirichlet allocation[J]. Journal of Machine Learning Research, 2003(3): 993-1022.

[5] Kim Y. Convolutional neural networks for sentence classification[J]. arXiv preprint arXiv:1408.5882, 2014.

[6] Cao Z, Wei F, Li S, et al. Learning summary prior representation for extractive summarization[C]//Proceedings of the ACL (2). 2015: 829-833.

[7] Kalchbrenner N, Grefenstette E, Blunsom P. A convolutional neural network for modelling sentences[J]. arXiv preprint arXiv:1404.2188, 2014.

[8] Collobert R, Weston J, Bottou L, et al. Natural language processing (almost) from scratch[J]. Journal of Machine Learning Research, 2011(12): 2493-2537.

[9] Hofmann T. Probabilistic latent semantic indexing[C]//Proceedings of the 22nd Annual International ACM SIGIR Conference on Research and Development in Information Retrieval. ACM, 1999: 50-57.

[10] Burges C, Shaked T, Renshaw E, et al. Learning to rank using gradient descent[C]//Proceedings of the 22nd International Conference on Machine Learning. ACM, 2005: 89-96.

[11] Cheng J, Lapata M. Neural summarization by extracting sentences and words[J]. arXiv preprint arXiv:1603.07252, 2016.

[12] Kingma D, Ba J. Adam: A method for stochastic optimization[J]. arXiv preprint arXiv:1412.6980, 2014.

[13] Srivastava N, Hinton G, Krizhevsky A, et al. Dropout: A simple way to prevent neural networks from overfitting[J]. The Journal of Machine Learning Research, 2014, 15(1): 1929-1958.

[14] Carbonell J, Goldstein J. The use of MMR, diversity-based reranking for reordering documents and producing summaries[C]//Proceedings of the 21st Annual International ACM SIGIR Conference on Research and Development in Information Retrieval. ACM, 1998: 335-336.

[15] Lin C Y, Hovy E. The automated acquisition of topic signatures for text summarization[C]//Proceedings of the 18th Conference on Computational Linguistics-Volume 1. Association for Computational Linguistics, 2000: 495-501.

[16] Radev D R, Allison T, Blair-Goldensohn S, et al. MEAD-A platform for multidocument multilingual text summarization[C]//Proceedings of the LREC, 2004.

[17] Erkan G, Radev D R. LexRank: Graph-based lexical centrality as salience in text summarization[J]. Journal of Artificial Intelligence Research, 2004(22): 457-479.

[18] Conroy J M, Schlesinger J D, Goldstein J, et al. Left-brain/right-brain multi-document summarization[C]//Proceedings of the Document Understanding Conference (DUC 2004), 2004.

[19] Hong K, Conroy J M, Favre B, et al. A repository of state-of-the-art and competitive baseline summaries for generic news summarization[C]//Proceedings of the LREC, 2014: 1608-1616.

[20] Lin C Y. Rouge: A package for automatic evaluation of summaries[C]//Proceedings of the Text summarization branches out: Proceedings of the ACL-04 workshop, 2004, 8.

猜你喜欢

文档语义卷积
真实场景水下语义分割方法及数据集
浅谈Matlab与Word文档的应用接口
基于3D-Winograd的快速卷积算法设计及FPGA实现
有人一声不吭向你扔了个文档
语言与语义
卷积神经网络的分析与设计
从滤波器理解卷积
基于傅里叶域卷积表示的目标跟踪算法
Word文档 高效分合有高招
“吃+NP”的语义生成机制研究