为什么需要中文分词? ●与英文为代表的拉丁语系语言相比,英文以空格 作为天然的分隔符,而中文由于继承自古代汉语的传统,词语之间没有分隔 。 ●古代汉语中除了连绵词和人名地名等,词通常就是单个 汉字,所以当时没有分词书写的必要。而现代汉语中双字或多字词 居多,一个字不再等同于一个词。
分词作用
互联网绝大多数应用都需要分词,典型应用实例 ?汉字处理:拼音输入法、手写识别、简繁转换 ?信息检索: Google、 Baidu ?内容分析:机器翻译、广告推荐、内容监控 ?语音处理:语音识别、语音合成 举例 中文的语义与字词的搭配相关 定义 ●什么是分词? ?分词就是利用计算机识别出文本中词汇 的过程。比如句子“内塔尼亚胡说的确实在理"
中文分词常用算法
分词算法分类 ●基于字符串匹配的分词算法 ●基于统计的分词算法 ●基于理解的分词算法
基于字符串匹配的分词算法
字符串匹配分词(机械分词) 正向最大匹配算法 基本思想: 选取固定长 个汉字的符号串作为最大符号串,把最大符号串与词典中的单词条目相匹配,如果不能匹配,就去掉一一个汉字继续匹配,直到在词典中找到相应的单词为止。 匹配方向是从左向右 ,减字方向是从右向左 。 机械分词 ●优点 ?程序简单易行,开发周期短 ?没有任何复杂计算,分词速度快 ●不足 ?不能处理歧义 ?不能识别新词 ?分词精度不能满足实际的需要(规范文本80%,互联网文本在70%左右)
基于统计的分词算法
统计分词 ●生成式统计分词 ●判别式统计分词 生成式分词 ●优点 ?在训练语料规模足够大和覆盖领域足够多的情况下,可以获得较高的切分正确率(>=95%) ●不足 ?需要很大的训练语料?新词识别能力弱 ?解码速度相对较慢 判别式分词 原理 ?在有限样本条件下建立对于预测结果的判别函数,直接对预测结果进行判别,建模无需任何假设。 ?由字构词的分词理念,将分词问题转化为判别式分类问题 优势 ?能充分利用各种来源的知识 ?需要较少的训练语料 ?解码速度更快 ?新词识别性能好 分词过程示例 判别式分词 ●特征所涉及的语言学知识 ?字的上下文知识 ?形态词知识:处理重叠词、离合词、前后缀 ?仿词知识: 2000年 ?成语/惯用语知识 ?普通词词典知识 ?歧义知识 ?新词知识/用户词典 ?新词的全局化知识 优点 ?理论基础扎实 ?解码速度快 ?分词精度高 ?新词识别能力强 ?所需学习素材少 弱点 ?训练速度慢 ?需要高配置的机器训练
基于理解的分词算法
(1)通过让计算机模拟人对句子的理解,达到识别词的效果。其基本思想就是在分词的同时进行句法 、语义分析 ,利用句法信息和语义信息来处理歧义现象。 (2)包括三个部分 ●分词子系统 ●句法语义子系统 ●总控部分 特点 (1)在总控部分的协调下,分词子系统可以获得有关词、句子等的句法和语义信息来对分词歧义进行判断,即它模拟了人对句子的理解过程。 (2)这种分词方法需要使用大量的语言知识和信息 。由于汉语语言知识的笼统、复杂性,难以将各种语言信息组织成机器可直接读取的形式,因此目前基于理解的分词系统还处在试验阶段 。
中文分词的难点及应用领域
常见分词系统 ●ICTCLAS Institute of Computing Technology, Chinese Lexical Analysis System 由中国科学院计算技术研究所开发 主要功能有
自动分词
词性标注
●斯坦福分词系统 (1)斯坦福分词系统是- 一个开源的软件,它基于CRF (Condition Random Field, 条件随机场)机器学习理论。 (2)该系统提供了了两个分词数据模型,
- 一个是基于宾州中文树库
- 另外一个是基于北京大学为sighan第二届中文分词竞赛提供的数据
(3)使用形式如下: ●segment ctb| pk filename encoding ●参数说明如下: ●ctb:宾州中文树库。 ●pk:北京大学语料库。 ●filename: 待分词的文件名。 ●encoding: 待分词文件的编码,可以是UTF 8, GB18030等java所支持的编码。
中文分词的应用领域
中文新词识别
新词的定义 (1)词典参照的角度 ●现代汉语基本词汇所没有的词语
新形式
新意义
新用法
(2)时间参照角度 ●在某一时间段内或自某一时间点以来首次出现的具有新词形、新词义或者新用法的词汇 ●随着互联网不断发展,新词大量涌现 未登录词与新词 ●未登录词 :未在当前所用词典中出现的 ●新词 :随着时代的发展而新出现或旧词新用的词 多数研究者对这两个概念不加区别 ●中文信息处理领域新词识别 一般把新词视为未登录词来进行处理 ●对未登录词的处理在实用分词系统中举足轻重 新词的分类 新词识别的任务 ●候选新词的提取 ●垃圾字串的过滤 ●新词的词性猜测 新词识别的发展过程(一) (1) 最早的一篇文章是1990年汪华峰的《汉语自然语言理解中词切分中新词问题初探》 ●基于统计的方法,只考虑了词频一个特征 (2) 在之后的十年研究成果较少 (3) 2002年郑家恒等人的《基于构词法的网络新词自动识别初探》 ●采用了规则的方法 ●对新词的词长、构词规则进行了总结,依靠语言学规则进行新词识别,取得了较好的效果 新词识别的方法
- 基于规则的方法
- 基于统计的方法
- 规则与统计相结合的方法
基于规则的方法 (1)利用语言学知识,总结新词的构词特点建立规则库,利用规则库筛选新词 (2)优点 ●准确率高 (3)缺点 ●构建规则库工作量大、成本高 ●规则不能概括所有的语言现象 对于不符合规则的新词会造成遗漏,且规则过多规则之间容易相互冲突 ●规则库的更新困难. 新词产生的速度快、组词灵活,构建的规则库难以适应新词产生的速度 ●移植性差 规则方法常与特定领域相关 ●新词词性规则 新词主要集中在名词、动词、形容词这三类实词上 名词所占比例最高 虚词一般不构成新词 基于统计的方法 (1)统计方法主要以大规模语料库 作为训练语料,根据新词的特点统计各种有效数据来识别新词。逐渐成为主流方法。 (2)优点 : ●不依赖规则 ●不限定领域 ●移植性好 (3)缺点 ●统计方法的计算量大 ●大规模语料 进行模型训练 ●由于使用的语言知识较少,一般都存在数据稀疏和准确率低 的问题 ●会形成大量垃圾串 ,垃圾串的过滤是统计方法的难点。 新词识别的统计特征 ●字或词的频数和出现文数 ●词内部概率 ●时间特征 ●邻接类别 字或词的频数和出现文数 时间特征 词内部概率 邻接类别 ●新词作为词,内部要稳定,上下文要灵活 ●上下文邻接(左邻接、右邻接)集合 集合元素越多,说明词的上下文语境越灵活,越可能是一个新词 规则和统计相结合的方法 (1)规则方法和统计方法各有不足,将两种方法相结合以提高识别效果。 ●实践中采用统计方法为主辅之以规则方法过滤,对规则的深入研究和运用仍然较少。 ●采用统计和规则相结合的方法来识别新词的文献 新词识别的基础知识 ●正确率 =提取出的正确新词数/提取出的新词数 ●召回率 =提取出的正确新词数/样本中的新词数 两者取值在0和1之间,数值越接近1,正确率或召回率就越高。 ●F值 =正确率召回率2/(正确率+召回率) F值即为正确率和召回率的调和平均值 新词识别研究的主要技术方法 ●基于支持向量机(SVM) ●基于最大熵模型(ME) ●条件随机场模型(CRF) ●基于隐马尔科夫模型(HMM) ●基于决策树(DT)
支持向量机(SVM)
存在的问题 ●新词识别方法具有一定局限性 ●识别效果有待提高 ●新词定义不统一, 人工判定新词的具有主观性 ●新词产生时间的模糊性 ●分词后识别方法中的分词错误 ●垃圾串过滤 的复杂性 ●少数民族语的新词识别研究几乎没有 ●多语种的新词识别研究成果非常少
|