APP下载

基于循环神经网络序列标注的中文分词研究

2017-10-23古丽米拉克孜尔别克钟丽峰张志强

计算机技术与发展 2017年10期
关键词:分词向量标签

刁 琦,古丽米拉·克孜尔别克,钟丽峰,张 健,张志强

(1.新疆农业大学 计算机与信息工程学院,新疆 乌鲁木齐 830052;2.新疆维吾尔自治区图书馆,新疆 乌鲁木齐 830052;3.新疆虹联软件有限公司,新疆 乌鲁木齐 830052)

基于循环神经网络序列标注的中文分词研究

刁 琦1,古丽米拉·克孜尔别克1,钟丽峰2,张 健3,张志强1

(1.新疆农业大学 计算机与信息工程学院,新疆 乌鲁木齐 830052;2.新疆维吾尔自治区图书馆,新疆 乌鲁木齐 830052;3.新疆虹联软件有限公司,新疆 乌鲁木齐 830052)

分词是中文自然语言处理中的关键技术。在自然语言处理中,序列标注在中文分词中有着极其重要的应用。当前主流的中文分词方法是基于监督学习,从中文文本中提取特征信息。这些方法未能充分地利用上下文信息对中文进行分割,缺乏长距离信息约束能力。针对上述问题进行研究,提出在序列标注的前提下利用双向循环神经网络模型进行中文分词,避免了窗口对上下文大小的限制,可以获得一个词的前面和后面的上下文信息,通过增加上下文能够有效地解决梯度爆炸和爆的问题,然后再在输入层加入训练好的上下文词向量,取得相对较好的分词效果。实验结果表明,该算法的使用可以达到97.3%的中文分词准确率,与传统机器学习分词算法相比,效果较为显著。

自然语言处理;循环神经网络;序列标注;中文分词;监督学习

0 引 言

分词是中文处理的一项根本任务。词是“最小的能独立运用的语言单位”[1]。中文与英文有所不同,英文中词与词之间用空格天然分割,而中文具有大字符连续书写的特点,需要对其进行有效分割。分词更重要的一个功能是帮助计算机理解文字。因此,在自然语言处理中,中文分词[2]是一项重要的基础技术。

近年来,中文分词技术有了长足进步。陈硕等[3]提出一种使用误差反传神经网络与一种改进的匹配算法相结合的中文分词技术,该方法不需要标注语义信息,适应性、鲁棒性好,且训练结果占用空间小,有一定冗余性,对比单纯的神经网络分词方法有较大提高。巫黄旭[4]提出一种基于统计学习的分词方法,以期在最小人工干预的条件下达到尽可能高的分词性能,扩展二元语法模型至三元语法模型,提出性能优化的三元语法获取和使用方法,但语法模型结构较为简单。何嘉[5]在分析进化神经网络及神经网络分词法优势的基础上,将改进的免疫遗传算法应用到基于神经网络的中文分词模型中,对歧义进行处理。尽管这些方法效果较好,但是标记特征工作量大,训练的模型过度拟合训练语料库。

循环神经网络(RNNs)[6]广泛应用于机器翻译[7]、语音识别[8]、图像描述生成等领域。相比于传统前馈神经网络,其特点是可以存在有向环,将上一次的输出作为本次的输入。而与前馈神经网络[9]的最大区别是:前馈神经网络要求输入的上下文是固定长度的,也就是说n-gram中的n要求是个固定值,而在LSTM基础上扩展的循环神经网络不限制上下文的长度,可以充分利用所有上文提供的信息来预测下一个词,本次预测的中间隐层信息可以在下一次预测里循环使用。为此,文中试图将循环神经网络模型应用在中文分词方面。

1 理论研究

1.1词向量特征

在自然语言处理中,需要将自然语言理解问题转化为机器学习问题,即自然语言的符号数学化。目前最常用的词表示方法是One-hot Representation[10],把文本中每一个词表示为多维向量,向量的维度是词表大小,其中绝大部分数元素表示为0,只有一个维度的值为1,这个维度就代表了当前的词。例如,“学生”表示为[0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0];“班级”表示为[0 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0]。

常将One-hot采用稀疏的方式对词进行存储,即为每个词分配对应的数字ID。该方法简单易用,广泛应用于各种自然语言处理任务中,如N-gram模型[11]中就采用该方法。但这种表述方法也存在一定问题,即表示的任意两词之间是孤立的,无法表示这两个词之间的依赖关系,从词向量上看不出两个词是否存在相关关系;采用稀疏表示法[12],在处理某些任务,如构建N-gram模型时,会引起维数灾难问题。

而在深度学习[13]中,一般采用分布式表示(Distributed Representation)的方法表示词向量,该方法最早由Hinton[14]提出,通常称为Word Representation。该方法将词用一种低维实数向量表示,优点在于相似的词在距离上更接近,体现出不同词之间的相关性,从而反映词之间的依赖关系。同时,较低的维度也使特征向量在应用时有一个可接受的复杂度。因此,新近提出的许多语言模型,如潜在语义分析(Latent Semantic Analysis,LSA)模型和潜在狄利克雷分布(Latent Dirichlet Allocation,LDA)[15]模型,及目前流行的神经网络模型等,都采用这种方法表示词向量。

1.2循环神经网络

中文分词通常被看作为基于字符的序列标签[16]。每个字符贴上{B,M,E,S}来表示分割。一个多字符分割用{B,M,E}表示开始、中间、结束,S表示单个字符分割。序列标注[17]就是针对一个线性输入序列:x=x1,x2,…,xn,给线性序列中的每个元素打上标签集中的某个标签,即y=y1,y2,…,yn。

中文分词的序列标注过程如图1所示。

图1 中文分词序列标注过程

神经网络的中文分词通用模块主要由三部分组成[18]:词向量化;一系列典型的神经网络层;标签推理层。通用框架如图2所示。

图2 基于神经网络的中文分词通用框架

基于字标注的分词方法是基于一个局部滑动窗口,假设一个字的标签极大地依赖于其相邻位置的字。给定长度为n的文本序列c(1:n),大小为k的窗口从文本序列的第一个字c(1)滑动至最后一个字c(n)。对于序列中每个字c(1),窗口大小为5时,上下文信息(c(t-2),c(t-1),c(t),c(t+1),c(t+2))被送入查询表中,当字的范围超过了序列边界时,将以诸如“start”和“end”等特殊标记来补充。然后,将查询表中提取的字向量连接成一个向量X(t);接着,在神经网络下一层中,X(t)经过先行变换后经由sigmoid函数σ(x)=(1+e-x)-1或tanh函数激活。

h(t)=σ(w1x(t)+b1)

(1)

接下来根据给定的标注集,将经过一个相似的线性变换,不同之处在于没有线性函数,得到的y(t)是每个可能标签的得分向量。文中选定的是更能充分表达词信息的四位标注集{B,M,E,S}。

y(t)=w2h(t)+b2

(2)

为了建模标签间依赖,引入转移得分向量Aij,用于衡量从标签i跳转到标签j的概率。 过往的研究表明,引入转移得分向量非常适用于中文分词等序列标注的任务,但它仅利用了长度有限的窗口信息。

1.3LSTM网络

Recurrent Neural Networks(RNNs)具有循环的网络结构,具备保持信息的能力,其网络结构如图3所示。

图3 RNNs网络结构

RNNs中的循环网络模块将信息从网络上一层传输到下一层,网络模块的隐含层每个时刻的输出都依赖于以往时刻的信息。RNNs的链式属性表明其与序列标注问题存在密切联系,目前已被应用到文本分类器和机器翻译等NLP任务中。在RNNs的训练中,存在梯度爆炸和消失的问题;且传统的RNNs难以保较长时间的记忆。

LSTM[19](Long Short-Term Memory)网络是RNNs的扩展,用来避免长期依赖问题。LSTM的重复神经网络模块具有不同的结构,这与朴素RNNs网络不同,存在4个以特殊方式影响的神经网络层,网络结构如图4所示。

图4 LSTM神经网络结构

LSTM网络的关键在于细胞状态,有点类似于传送带。在LSTM中,通过门结构对细胞状态增加或删除信息,而门结构采用选择性让信息通过的方式,通常由一个sigmoid神经网络层和逐点乘积操作组成(sigmoid层的输出在0到1之间,定义了信息通过的程度,0表示什么都不让过,1表示所有都让过)。

(1)从细胞状态中忘记信息,由忘记门的sigmoid层决定,以当前的输入xt和上一层的输出ht-1作为输入,在t-1时刻的细胞状态输出ft为;

ft=σ(wf·(ht-1,xi)+bf)

(3)

it=σ(wi·(ht-1,xt)+bi)

(4)

(5)

(6)

(3)输出信息由输出门决定。先使用sigmoid层决定要输出细胞状态的部分信息,接着用tanh处理细胞状态,两部分信息的乘积得到输出的值。

ot=σ(wo·(h·,)+bo)

(7)

ht=ot·tanh(ct)

(8)

LSTM网络模型已成功应用于诸如文本/情感分类、机器翻译、智能问答和看图说话[20]等自然语言处理任务中。由于LSTM网络记忆单元去学习从细胞状态中忘记信息、去更新细胞状态的信息,而且具有学习文本序列中远距离依赖的特性,很自然地想到可以使用LSTM网络模型进行中文分词的任务。

1.4基于循环神经网络的中文分词架构

在以往的大学英语写作课堂上,教师一直以来都遵循着这样一个程序:布置英语写作题目、修改学生作文、给出作文分数。从某个角度来说,这一流程单一枯燥,让学生始终处于一个被动的写作状态,并使其因此逐渐失去对英语写作的兴趣和自己的写作风格。就另一个角度而言,由于大学教师平时的教学任务较为繁重,且英语写作的批改是一个费时费力的事情,久而久之就会被视为一种负担,或者会被弃置一边,或者走形式主义,这样一来学生就不会得到有效的指导。如果老师对学生的习作的反馈不及时充分,学生的英语写作水平就得不到有效提高,写作就会变得没有动力。

在中文分析任务中,LSTM记忆单元的输入来自上下文窗口的汉字。对每个汉字C(t),LSTM记忆单元的输入为X(t),由上下文字嵌入(c(t),…,c(t+k))连接而成。其中k代表与当前字的距离。LSTM单元的输出在经过线性变换后用于标签推理函数,推理汉字对应的标签。

(9)

文中提出的架构如图5所示。为了建模标签间依赖,在以往的神经网络模型方法中引入转移得分向量Aij,用于衡量从标签i跳转到标签j的概率。对于输入文本序列c(1:n),其标注的标签序列为y(1:n),序列级的得分是标签转移得分和网络标注得分的总和。

(10)

2 分词评估标准

图5 文中提出的架构

中文分词性能评估指标,采用了分词评测常用的R(召回率)、P(准确率)和F-measure(F值),以F值为主要评测指标。

P=正确词数/识别的词数*100%

(11)

R=正确词数/原有词数*100%

(12)

F=2PR/(P+R)

(13)

3 实 验

3.1实验设备

实验设备如表1所示。

软件方面使用python2.7,安装好了keras,theano及相关库。

表1 实验设备

3.2实验结果

语料库由2亿字的中文语料训练形成,该中文语料含有50本电子书、2年的人民日报,内容涵盖范围非常广泛,包含外交、政治、经济、文化、民生等众多领域。测试集为新疆维吾尔自治区科技计划项目提供的3组数据,共2 000句,内容包含政治、外交、体育、民俗、文化和日常生活等方面。实验结果如下:P为0.973,R为0.971,F为0.972。

4 结束语

文中实验基于循环神经网络模型,采用四词位标注,在循环神经网络层输入预先训练的词向量,对实验的中文语料库进行分词。测试结果表明,该算法较传统的中文分词效果要好。

[1] 汉语信息处理词汇01部分;基本术语(GB12200.1-90)6[S].北京:中国标准出版社,1991.

[2] 奉国和,郑 伟.国内中文自动分词技术研究综述[J].图书情报工作,2011,55(2):41-45.

[3] 李 华,陈 硕,练睿婷.神经网络和匹配融合的中文分词研究[J].心智与计算,2010(2):117-127.

[4] 巫黄旭.基于统计学习的中文分词改进及其在面向应用分词中的应用[D].杭州:浙江大学,2012.

[5] 何 嘉.基于遗传算法优化的中文分词研究[D].成都:电子科技大学,2012.

[6] Graves A.Supervised sequence labelling with recurrent neural networks[M].Berlin:Springer,2012.

[7] 蒋锐滢,崔 磊,何 晶,等.基于主题模型和统计机器翻译方法的中文格律诗自动生成[J].计算机学报,2015,38(12):2426-2436.

[8] 王山海,景新幸,杨海燕.基于深度学习神经网络的孤立词语音识别的研究[J].计算机应用研究,2015,32(8):2289-2291.

[9] Bebis G,Georgiopoulos M.Feed-forward neural networks[J].IEEE Potentials,1994,13(4):27-31.

[10] Landauer T K,Foltz P W,Laham D.An introduction to latent semantic analysis[J].Discourse Processes,1998,25(2-3):259-284.

[11] 陈天莹,陈 蓉,潘璐璐,等.基于前后文n-gram模型的古汉语句子切分[J].计算机工程,2007,33(3):192-193.

[12] 栾悉道,王卫威,谢毓湘,等.非线性稀疏表示理论及其应用[J].计算机科学,2014,41(8):13-18.

[13] 张建明,詹智财,成科扬,等.深度学习的研究与发展[J].江苏大学学报:自然科学版,2015,36(2):191-200.

[14] Hinton G E.Learning distributed representations of concepts[C]//Proceedings of the 8th annual conference of the cognitive science society.[s.l.]:[s.n.],1986.

[15] Blei D M,Ng A Y,Jordan M I.Latent Dirichlet allocation[J].Journal of Machine Learning Research,2003,3:993-1022.

[16] 梁喜涛,顾 磊.中文分词与词性标注研究[J].计算机技术与发展,2015,25(2):175-180.

[17] 王 昊,邓三鸿,苏新宁.基于字序列标注的中文关键词抽取研究[J].现代图书情报技术,2011(12):39-45.

[18] Zheng X,Chen H,Xu T.Deep learning for Chinese word segmentation and POS tagging[C]//Proceedings of conference on empirical methods in natural language processing.[s.l.]:[s.n.],2013:647-657.

[19] Graves A,Jaitly N,Mohamed A.Hybrid speech recognition with deep bidirectional LSTM[C]//IEEE workshop on automatic speech recognition and understanding.[s.l.]:IEEE,2013:273-278.

[20] 翟 艳,冯红梅.基于“看图说话”任务的汉语学习者口语流利性发展研究[J].华文教学与研究,2014(4):1-7.

ResearchonChineseWordSegmentationMethodofSequenceLabelingBasedonRecurrentNeuralNetworks

DIAO Qi1,Gulimila·KEZIERBIEKE1,Zhong Li-feng2,ZHANG Jian3,ZHANG Zhi-qiang1

(1.College of Computer & Information Engineering,Xinjiang Agricultural University,Urumqi 830052,China; 2.Library of Xinjiang Uygur Autonomous Region,Urumqi 830052,China; 3.Xinjiang Honglian Software Co.,Ltd.,Urumqi 830052,China)

Word segmentation is a key technology in Chinese natural language processing.In natural language processing,sequence labeling plays an important role in Chinese word segmentation.The current mainstream Chinese word segmentation method is based on supervised learning,extraction of feature information from the Chinese text.However,they cannot make full use of context information to segment Chinese,and lack of long-distance information constraint.In order to solve it,Chinese word segmentation is carried on based on bi-directional recurrent neural network model on the premise of sequence labeling,avoiding the limitation of window size on context,obtaining the context information of the front and back of a word.It can effectively solve the problem of gradient explosion and explosion by adding context information,and then add a good context vector in the input layer to obtain a relatively good word segmentation effect.The experimental results show that it can achieve 97.3% accuracy of Chinese word segmentation and is superior to the traditional machine learning segmentation algorithm in the effect.

natural language processing;recurrent neural network;sequence annotation;Chinese word segmentation;supervised learning

TP301.6

A

1673-629X(2017)10-0065-04

2016-11-18

2017-03-09 < class="emphasis_bold">网络出版时间

时间:2017-07-19

新疆维吾尔自治区科技计划项目(2015X0106)

刁 琦(1989-),男,硕士研究生,研究方向为智能计算及应用;古丽米拉·克孜尔别克,通信作者,副教授,研究方向为现代通信技术及嵌入式技术。

http://kns.cnki.net/kcms/detail/61.1450.TP.20170719.1112.072.html

10.3969/j.issn.1673-629X.2017.10.014

猜你喜欢

分词向量标签
向量的分解
聚焦“向量与三角”创新题
分词在英语教学中的妙用
结巴分词在词云中的应用
结巴分词在词云中的应用
无惧标签 Alfa Romeo Giulia 200HP
不害怕撕掉标签的人,都活出了真正的漂亮
向量垂直在解析几何中的应用
向量五种“变身” 玩转圆锥曲线
让衣柜摆脱“杂乱无章”的标签