APP下载

基于指针网络的汉语宏观篇章结构双向解析方法

2023-01-18何垅旺范亚鑫褚晓敏李军辉李培峰

中文信息学报 2022年11期
关键词:指针语义解析

何垅旺,范亚鑫,褚晓敏,蒋 峰,李军辉,李培峰

(苏州大学 计算机科学与技术学院, 江苏 苏州 215006)

0 引言

宏观篇章结构解析旨在通过分析篇章的结构,为篇章的结构和语义理解奠定基础,并为下游任务提供有力的信息支撑(如问答系统[1]、机器翻译[2-4]、自动文摘[5-7]、信息抽取[8-9]等)。篇章解析主要分为微观和宏观两个层次。微观级篇章解析主要研究句子与句子之间的组织结构和语义关系,而宏观级的篇章解析主要研究段落与段落之间的组织结构和语义关系。相较于微观篇章解析,宏观篇章解析在文档级篇章解析中发挥着重要作用,它从更高的层次揭示了文档的主旨和内容,有利于文章的深层次理解。宏观篇章解析因基本篇章单元(Elementary Discourse Unit,EDU)为段落,颗粒度更大,所包含的语义信息更多,故篇章的全局信息变得更加复杂,为篇章结构解析任务带来了更大的挑战。

以宏观汉语篇章语料库(Macro Chinese Discourse Treebank,MCDTB)[10]中的一篇文章chtb_0236为例,如图1所示,其中叶子节点P1~P5表示该篇章中的5个EDU,即5个段落。非叶子节点则代表相邻的节点通过篇章关系联系起来成为一个更大的篇章单元(Discourse Unit,DU),箭头指向核心篇章单元,即更为重要的篇章单元。篇章结构分析就是通过逐级连接或逐级拆分篇章单元形成完整的篇章结构树的过程。

图1 宏观篇章结构树

在已有的结构解析研究中,篇章结构树大多是分步骤逐级完成的,主流方法分为两大类: ①自顶向下构建法,如利用指针网络进行切分的方法[11-13]和序列标注的方法[14]; ②自底向上构建法,如移位规约法[15-17]、基于CRF的维特比解码合并法[18]、基于CYK算法的构建方法[19]等。Kobayashi等[20]使用了两种基于动态规划的无监督解析方法,第一种为自顶向下进行切分解析,第二种为自底向上进行组合解析,并对比两者的特点。自顶向下的方法更专注于全局的语义信息,而自底向上的方法则更关注相邻两个或是三个DU之间的语义联系。然而,在结构构建的过程中,前序的步骤中产生的错误会对当前步骤的结构解析带来负面影响,从而造成错误传播(1)4.1节的实验结果表明,错误传播问题对基于指针网络的自顶向下和自底向上模型分别带来了16%和16.4%的性能损失。。所以如何最大限度地减少错误传播成为结构解析任务的突破点。

通过观察单向模型构建篇章结构树的过程,发现在采用单一方向构建篇章结构树的过程中,切分模型在针对某些段落跨度时难以识别切分边界,而此时组合模型却能准确找到组合位置,相反亦是如此。同时通过追踪语料标注者在篇章结构标注的过程中的实际行为,本文发现,标注者不仅会在一篇文章中有若干段落表达的语义存在明显语义相关性的时候进行篇章单元的合并,也会在文中出现明显语义边界时优先进行边界点分割。受到实验过程中的错误分析和标注者的行为特点的启发,不同于以往的工作都采用单一的结构构建策略,本文提出了一种结合了两类构建方法的指针网络模型,用于双向地构建篇章结构树,打破现有的单向结构解析局限性。与单向构建方法不同,该模型能在切分模块和组合模块中分别通过指针网络同时得出单向解析结果,并对两个结果中所包含的语义信息进行对比,最后得出置信度更高的解析决策。这样的篇章结构树构建过程更符合人类标注方法,减少了错误传播,从而达到更优的篇章结构解析性能。

本文在模型训练时,将切分模块和组合模块同时进行多任务学习,在两个模块联合学习的过程中,能够互相学习到语义交界信息,加强了各自的篇章语义理解能力和寻找解析边界能力,提升了两种模块各自的性能,进而提升了两种模块结合以后整体的性能。本文的贡献主要在于以下两点:

(1) 提出了基于指针网络的篇章结构树双向构建模型,能同时考虑切分和合并的决策可靠性,有效减少构建过程中的错误传播;

(2) 实验结果中的性能分析和决策分析都表明,本文提出的模型取得了当前的最佳性能。

1 相关工作

近年来,篇章解析成为了自然语言处理领域的研究热点,本节对涉及到宏观篇章解析的研究工作进行归纳。宏观篇章解析的两个流行的语料库分别是: 英语的修辞结构篇章树库(Rhetorical Structure Theory Discourse Treebank,RST-DT)[21]和汉语的宏观汉语篇章树库(Macro Chinese Discourse Treebank,MCDTB)[10]。

修辞结构篇章树库是由美国南加州加利福尼亚大学标注完成,一共标注了385篇文章的核心、关系和篇章结构。近年来,在该语料库的研究中,采用自底向上的方法有以下几项工作: Mabona 等[22]提出了一种基于波束搜索算法的生成模型,其能够跟踪结构和构词的行为来避免以往的RNNGs波束搜索算法所带来的左分支偏差[23],从而自底向上地进行篇章解析。Zhang等[24]通过融合多个信息流,根据文本的粒度对信息流进行分级来加强文本跨度的表示,使用移位规约算法自底向上地构建篇章结构树。而采用自顶向下的方法的有以下几项工作: Kobayashi等[25]在三个不同的粒度级别(段落、句子和词)上进行了篇章解析,递归地对较大的文本跨度进行拆分。Koto等[14]通过序列标注的方法自顶向下进行分割。Nguyen等[26]通过自顶向下的方法与预训练模型XLNet进行结合,目前达到了最优性能。

MCDTB[10]对720篇文章标注了其段落级以上的篇章结构(标注内容包括文章摘要、主题句、主次、关系、语用等)。近年来在MCDTB上进行篇章结构解析的工作主要通过基于转移的算法进行篇章结构树的构建: Zhou等[15]从多视图的角度来提取篇章语义信息,还提出了一种词对相似机制来获取EDU之间的交互信息,从加强EDU语义表示的角度提升了模型性能,采用了基于转移的方法自底向上构建篇章结构树。Fan等[11]对全局信息和局部信息进行了融合,从加强DU之间语义交互的角度做出了改进,是目前MCDTB上唯一使用自顶向下的方法进行篇章结构解析的模型。Jiang等[16]利用了汉英篇章结构的左分支偏向特点,提出了一种全局和局部反向阅读的方式,以这种方式构建篇章结构树,在两种阅读模式(全局反向阅读和局部反向阅读)当中,前者从尾到头采用移位规约算法对篇章单元进行处理,而后者则通过改变篇章单元中的段落位置来增强相邻篇章单元之间的连贯性差异。Jiang等[17]发现将长文本分割成若干短文本,再逐个对短文本进行篇章解析能够有效减少短文本之间的错误传播,从而提升对长文本的识别能力。它根据主题分割将篇章结构树分割成若干个文本跨度,再将构建的子树结合,同样采用的是自底向上的方法。

2 模型概述

在构建层次篇章结构树的过程中,无论是自顶向下进行切分还是自底向上进行合并,都会有不同程度的错误传播。为了缓解这一问题,本文提出了一个基于指针网络的双向篇章解析器(Bidirectional Discourse Parser Based On Pointer Network,BD-PN)用以解析宏观篇章结构,将切分和合并两种解析方式进行整合,由模型选择可靠性更高的解析方式来减少解析过程中产生的错误传播。

该模型主要分为三个部分,分别为切分模块(Split Module)、组合模块(Combine Module)和双向选择器,前两个模块包含相同结构的指针网络编码层和指针网络解码层,编码层用以捕获DU的语义表示。切分模块中的解码层寻找DU序列边界用于将DU切分成两个新DU;而组合模块中的解码层则将两个相邻DU组合成一个新DU。模型最后在双向选择模块中对前两个模块的输出进行选择,递归地解析出完整的宏观篇章结构,进一步减少错误传播。

如图2所示,初始状态为一个包含完整EDU序列的栈,在每一个时间步,取出当前栈顶单元,BD-PN会输出切分和组合两种操作的结果。实线代表模型所保留的解析决策和结果,而虚线表示模型所抛弃的解析决策和结果。如果把切分操作的输出作为此时的选择,较大的篇章单元会被切分成两个较小的篇章单元。在图2中,在t=1时间步,DU1~7被切分成DU1~4和DU5~7,遵循深度优先原则,将长度大于2的输出单元入栈,因此DU1~4和DU5~7都会入栈,此时DU1~4成为新的栈顶单元,当前时间步结束。如果选择组合操作,DU中的两个较小篇章单元会被合并成一个较大篇章单元。图2中在t=4时间步,DU5和DU6被合并成一个较大篇章单元DU5~6。而长度等于2的输出单元则直接进行合并,递归地进行以上操作直至栈空。

图2 包含7个EDU的文档的宏观篇章结构树建树流程

2.1 指针网络

自顶向下的解析策略,可以理解为按照一定的顺序对初始DU序列中的边界进行排序,并按此顺序进行相应的切分决策;而自底向上的解析策略可以理解为按照一定的顺序进行相应的组合决策。无论是哪种解析策略,在树的构建过程中,输入的序列长度一直在发生变化,因此可以将这样的篇章结构解析任务等价于变长序列排序问题。而指针网络[27]可以通过把注意力作为一个指向机制来适应这样的场景,因此本文选择使用指针网络作为模型构建的基础。篇章结构解析的重点在于DU的语义表示和DU之间的语义交互,在指针网络编码层实现DU语义表示,在指针网络解码层实现DU之间的语义交互。

2.1.1 指针网络编码层

两个模块的编码层结构相同却并不共用,因为两个模块捕获语义信息的目标不同,共用编码层会导致边界信息特征混乱。

在语义表示方面,Transformer框架由于输入的最长序列长度有限导致超长序列丢失信息问题,而Cui等[28]提出的基于Transformer-XL框架的预训练模型XLNet通过引入片段循环机制能够在长文本任务上取得更好的效果,因此本文使用XLNet(2)https://github.com/ymcui/Chinese-XLNet的输出作为段落的语义表示。

GRU[29]相对于LSTM[30]拥有更少的模型参数和计算代价,减少了LSTM中的门控数量,同时保留了最重要的遗忘门,并且在多个基准数据集上优于标准LSTM网络。为了加强上下文语义理解,本文使用了双向GRU对段落表示进行增强。

为了避免输入长度超过XLNet的长度限制,本文将长度超过1 024的篇章在当前最长段落末尾逐词进行截断,直至篇章长度小于1 024。再将全文一次性输入XLNet中,从而得到全文的初始化向量表示R={r1,r2,…,rn}。ri表示文章中第i个词的向量(XLNet采用Sentence Piece以词为单位进行分词),n为全文总长度。将R输入到6层双向GRU中得到编码层的输出E={e1,e2,…,en},具体如式(1)所示。

E,hf=fBiGRU(R,h0)

(1)

图3 5个EDU的篇章文本表示方法

2.1.2 指针网络解码层

在指针网络解码层实现篇章语义交互,与编码层一致,两个模块同样不共用解码网络。组合模块的解码层主要根据语义相似程度对相邻DU进行组合;而在切分模块的解码层中主要根据语义相似程度对当前DU进行切分。

(2)

其中,er为当前篇章单元序列Lt=(l,…,r)中最后一个EDU的编码层输出,dt为当前时间步t的解码层状态,ht-1为上一个时间步t-1中所输出的隐层状态,解码层中的h0为指针网络编码层输出的最后一个隐藏状态[式(1)中的hf]。在隐层状态中包含前序解析信息,在切分模块中包含了上层解析状态信息,而在组合模块中包含了下层解析状态信息。最后根据dt对各边界计算注意力分数scoret,i,并得到当前的概率分布,如式(3)、式(4)所示。

其中,式(3)中的σ为点积运算,eLt,i为当前序列Lt中所有段落的编码层输出,其中i∈Lt=(l,…,r-1)。αt为解码层中时间步t关于当前序列依据相邻DU之间语义联系紧密程度进行切分或组合的概率分布。依据该概率分布: ①在组合模块中,概率值越大,说明该边界两侧的DU之间语义联系越紧密,则越应该在此处进行组合,模型将学习到“组合”动作。②在切分模块中,概率值越大,则说明该边界两侧的DU之间语义联系越松散,则越应该在此处进行切分,模型将学习到“切分”动作。

2.2 双向选择器

图4 BD-PN模型

其中,Pt为在第t步选择的决策动作,Bt为在第t步时基于决策动作Pt所选择的解析位置,b为边界位置集合中的元素。双向解析算法具体如下:

Algorithm 1 Bi-directional parsing1: S ←stack, containing one element consisting of all DUs2: While S.top() has more than 2 DUs do3: L←S.pop(S.top())4: i←start(L), j←end(L)5: b^,acti︿on ← argmax(saction(i,j,b))6: if acti︿on=Split then7: Left_child(L)←Li: b^, Right_child(L)←Lb^+1: j8: if Left_child(L)has more than 2 DUs then9: S.push(Lb^+1:j)10: if Right_child(L)has more than 2DUs then11: S.push(Li: b^)12: else13: LC←Lb^: b^+114: Left_child(LC)←Lb^, Right_child(LC)←Lb^+115: L~←Li: b^-1∪LC∪Lb^+2: j16: ifL~has more than 2DUs then17: S.push(L~)

2.3 联合学习

本文对组合模块和切分模块进行联合学习,使用了负对数似然函数作为损失函数。为了能够最大化地构建正确的树结构,模型的损失主要为指针网络的指向边界位置损失,最终的损失LF(θF)计算过程如式(7)~式(9)所示。

其中,θC和θS分别为组合模块和切分模块的参数集,y

3 实验

3.1 数据集与实验设置

宏观汉语篇章树库(MCDTB)标注了720篇文章,为了扩大语料规模,本文在MCDTB的基础上,新标注了480篇文章,构成了一共1 200篇文章的MCDTB 2.0。MCDTB 2.0的样本数量更多,更考验模型的泛化能力。为了对比两者之间的差异,本文分别统计了MCDTB和MCDTB 2.0的文章长度(EDU总数)分布,如表1所示。

表1 MCDTB和MCDTB 2.0的段落分布情况

MCDTB中6段以上的长文占了24.3%,而在MCDTB 2.0中则占了27.1%,由此可见MCDTB 2.0中长文的比例更大,篇章结构解析任务的难度也更大。本文使用Jiang等[10]遵循的段落分布数据集划分方法划分了MCDTB 2.0,其中训练集为960篇,测试集为240篇。在Zhou等[15]之后,MCDTB上的工作都将非二叉树转换成二叉树,本文也将遵循这一原则,为了更公平地与基线进行对比,本文同样使用了树内节点正确率(与F1值等价)作为评判标准。本文所采用的自底向上和自顶向下两个解析器的模型参数设置相同,XLNet为24层768维,编码层、解码层中的BiGRU、GRU的隐藏层大小设置为64,编码层和解码层的dropout率都设置为0.2,批处理大小设置为2,学习率为1e-4。

3.2 实验结果

本文在MCDTB 2.0上复现了PNGL[11]、MDParser[17]、GBLRR[16]三个基准系统,并将本文中的三个解析器与之进行对比。三个基准系统介绍如下:

PNGL目前在MCDTB上性能最好的自顶向下的模型,PNGL使用指针网络结合了全文的语义信息和EDU之间的局部信息,自顶向下地构建篇章结构树。

MDParser-TSMDParser-TS在构建篇章结构树之前先将文章切分成若干个主题,在各个主题跨度下使用基于转移的方法自底向上地构建篇章结构树,再将各个子树用同样的方法结合,进而构建完整的树。

GBLRR该模型同样是使用基于转移的方法自底向上构建结构树,不同的是该工作利用了中文文章结构树的左分支偏差特点,采用了从文章末尾到开头进行构建的方式对EDU序列进行处理,此种方法更易解析出左倾的树,更符合汉语篇章特性。

此外,对本文提出的BD-PN进行消融实验,表2中的CB-PN(Combine Discourse Parser Based On Pointer Network)和SP-PN(Split Discourse Parser Based On Pointer Network)分别为BD-PN中只选择合并或只选择切分的模型。

实验结果如表2所示。BD-PN相对于三个基准系统以及本文的两个单向系统都有明显的性能提升。在自顶向下的模型中,SP-PN和PNGL模型都使用了指针网络架构,但是由于SP-PN使用了表现更好的XLNet预训练模型,因此性能更佳。而在自底向上的模型中,GBLRR和MDParser-TS均优越于本文的CB-PN,但是结合了自顶向下和自底向上两种构建方法的BD-PN性能却相较于三个基准系统分别有12.6%、2.6%和1.2%的明显提升。

表2 各个系统在MCDTB 2.0上的性能比较 (单位: %)

4 实验分析

4.1 选择决策分析

本文进行了前置Oracle实验来把错误传播对性能产生的影响进行量化,前置Oracle实验具体做法为: 在式(7)、式(8)中将y

为了对模型通过选择解析方式减少错误传播的过程进行深入探究,本文统计了在测试集中的所有决策步骤。其中包含71.4%的切分决策和28.6%的组合决策,切分决策中的67.4%切分出了正确的节点,而在正确的切分决策中又有74.8%规避了错误的组合决策(组合出错误的节点)。相同的在组合决策中的64.3%组合出了正确的节点,而在正确的组合决策中的69.7%的组合规避了错误的切分决策,可见选择合理的构建方式十分有必要。

本文还对BD-PN进行了后置Oracle实验来测试模型的性能上限: 模型不再直接通过概率选择解析方式(若在模型预测的切分/组合边界位置能切分/组合出正确节点则执行相应的切分/组合决策,否则按照原来的概率分布选择解析方式)。实验能够达到73.9%的性能上限,证明了双向建树的有效机制。

同时本文还通过其他方式确定选择决策Pt和解析边界位置Bt。定义规则如式(10)~式(13)所示,这种方式希望利用指针网络所输出的关于所有边界的概率信息来决定解析决策动作和解析边界,通过寻找所有边界中注意力分数之差的最大值作为动作权重,并比较权重大小决定动作决策。但是这种方法的性能只能达到64.1%,由此可以推断出,在指针网络的输出中其他位置的概率可靠性并不如最大概率的位置可靠性高,这个实验也同样解释了为什么不能使用一个时间步中算出的概率分布直接完成结构树构建。

4.2 模型对长短文的解析能力分析

在Jiang等[17]的工作中指出,模型通常对6段以下(含6段)的文章解析性能会更佳。如表3所示,本文将文章分为6段以下(含6段)的短文和6段以上的长文,并分别测试它们的性能。经过实验发现,模型对较长的文章的解析能力普遍较差,而对较短的文章的解析能力会相对更强。原因是对于每个解析步骤来说,之前的错误决策会影响到当前对节点的正确解析,文章越长则产生的错误传播更为严重(基于错误的待解析序列很难解析出正确的节点)。所以比较模型之间对不同长度文章的解析能力是检验是否减少错误传播的有效途径。

在基准系统以及本文的两个单向指针网络模型中,无论是长文还是短文,GBLRR的表现都是最好的。在短文方面,BD-PN比GBLRR低0.4%的性能,这是由于短文解析步骤更少,即选择次数更少,双向选择带来的优势被减弱。而在长文方面,两个单向模型相对于基准系统GBLRR分别有4.5%和1.7%的性能差异,显然单向模型的长文建模能力明显不足。而BD-PN在长文中相较于GBLRR提升了2.4%的性能,可见BD-PN在长文上所表现的性能提升非常明显,BD-PN相对于GBLRR的提升也主要来源于此,这也表明了双向构建篇章结构的主要优势在于能够更好地减少错误传播。

表3 各模型对长短文的解析能力 (单位: %)

4.3 模型对不同层次节点的解析能力分析

表4展示了各模型在不同层级篇章树上的表现,其中底层和顶层的层数为一棵树层数的三分之一(向下取整),其余的层数为中层。BD-PN在底层的表现仅次于GBLRR,而在中间层和顶层均取得性能最优值。通过表4可以发现自顶向下的模型相较于自底向上的模型通常会在顶层表现得更好,而在底层表现略差。在顶层,SP-PN相较于CB-PN、GBLRR和MDParser-TS分别有10%、6.3%和2.2%的性能提升,而在底层却分别有4%、9.9%和5.3%的性能下降。这是由于自顶向下模型更加关注全局信息并且解析起点在顶层,而在向下解析的过程中不可避免地遇到错误传播问题,从而导致下层节点更容易出现解析错误。同理,自底向上模型会在顶层节点中表现欠佳。GBLRR由于反向阅读机制能够更好地处理汉语结构树左分支偏差特点,所以在底层节点中会优于BD-PN模型。而在基于指针网络的模型中,BD-PN的底层和顶层表现均取得最优性能。

表4 各模型在不同层级上的表现 (单位: %)

结果表明,各模型的中间层节点性能均低于底层和顶层节点性能,这是因为含有中间层节点的树(三层及三层以上)更加复杂,与底层和顶层节点相比,中间层中DU之间的语义关系更加模糊,解析难度更大。而在中间层,BD-PN相对于所有模型带来了1.8%~11.6%的绝对改进,这证明BD-PN能更适用于复杂的结构树,在长文中能提高中间层节点的识别能力。根据双向解析特性,对中间层节点的识别通常在更靠后的时间步中,由于BD-PN能更好地减少级联错误,这使得模型在解析流程末端也能产生更好的表现。

4.4 转换原则对模型的影响

BD-PN的模型性能在很大程度上取决于切分模块和组合模块的性能,为了探究两个模块之间存在的性能差异来源,本文对CB-PN和SP-PN的实验结果进行了分析。在实验结果中可以看出,虽然CB-PN和SP-PN使用了几乎相同的网络架构,但两个模型之间还是出现了1.6%的性能差距。分析其主要原因是: 为了更加公平地与其他模型进行比较,本文和所有的基准系统一样,遵循了将非二叉树转换成二叉树的原则,这使得在模型的学习过程中对模型产生了误导。如图5所示,6个段落的文章产生了5个边界可供切分或合并。在按转换规则转换成二叉树之前,以原文的语义和结构层次,CB-PN所希望学习到的组合顺序是2→4→5→1,而在转换过后CB-PN实际所学习到的组合顺序为2→5→1→4,造成了CB-PN所学习到的DU之间的语义离散程度与原文实际语义有偏差,进而导致CB-PN的性能受到了影响。而对于SP-PN来说,转换前后模型所学习到的切分顺序都是3→1→4,模型所学到的DU之间的语义关联程度与原文无异,由此本文假设是转换原则对CB-PN产生了负面影响。

为了验证前述的假设,本文基于两种不同的原则进行了实验。实验结果如表5所示,可以发现在模型的两种学习原则中,SP-PN前后只有0.3%的微小性能差异,而对于CB-PN来说,则产生了1.1%的更为明显的性能差异。在基于不转换的原则下,本文的两种方法性能差距则只有0.2%,可见转换原则会对CB-PN带来性能损失。但为了与基准系统一致,本文的工作依然基于转换原则。

图5 转换原则示例

表5 是否转换所带来的性能比较 (单位: %)

4.5 案例分析

本文将图1中的文章chtb_0236在SP-PN、CB-PN和BD-PN的篇章结构构建流程抽取出来进行分析。如图6所示,其中两种带箭头的虚线分别代表了切分和组合操作,而在BD-PN中箭头长度代表两个模块对当前决策的置信度。在SP-PN的建树流程中,第一次在第四段和第五段之间切分,并且切分正确,代表模型对当前文档(DU1~5)的语义理解正确,认为前四段和第五段有明显不同的语义主题。而在第二次切分时就出现了错误,并将错误向后传播,代表模型已经不能在当前待解析文档(DU1~4)中寻找出正确的边界,使得两侧语义联系最远。在CB-PN的建树流程中同时存在这样的问题,模型能够正确地识别出第三段和第四段有着紧密的语义联系,并正确地将其组合成一个DU,但在第二步中就不能识别出第一段和第二段之间的组合关系,而认为第五段和三四两段的语义联系更紧密,导致解析错误。

图6 SP-PN、CB-PN、BD-PN在同一篇文章上的解析流程

反观BD-PN的建树流程,在第一步时切分模块和组合模块的选择都正确,但因为切分模块对选择的置信度更大,BD-PN将前四段和第五段切分成两个DU。在第二步中,切分模块认为应该在第一段和第二段之间进行切分(与SP-PN中第二步的行为一致),而组合模块认为应该将第三段和第四段组合起来(与CB-PN中第一步的行为一致),但此时选择置信度更大的组合操作,成功规避了错误的切分决策,在第三步中同样如此。通过对具体样例进行分析,更清楚地展示了双向解析策略独有的优势。

5 总结

针对宏观篇章结构解析任务,本文提出了一种基于指针网络的汉语宏观篇章结构双向解析方法。本文方法融合了自顶向下和自底向上两种构建策略的优点,在构建步骤中有效减少了错误传播。实验结果表明,本文中的模型性能优于目前所有的基准系统。后续工作中,我们会将继续优化单向局部模型,改进解析选择策略,以期提升宏观篇章结构解析的整体性能。

猜你喜欢

指针语义解析
三角函数解析式中ω的几种求法
垂悬指针检测与防御方法*
语言与语义
睡梦解析仪
为什么表的指针都按照顺时针方向转动
电竞初解析
批评话语分析中态度意向的邻近化语义构建
对称巧用解析妙解
“社会”一词的语义流动与新陈代谢
“吃+NP”的语义生成机制研究