第5章--语言模型.ppt

  1. 1、本文档共106页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
第5章--语言模型

第5章 语言模型;5.1 基本概念 5.2 参数估计 5.3 数据平滑 5.4 语言模型的自适应 5.5 语言模型应用举例 ;5.1 基本概念 5.2 参数估计 5.3 数据平滑 5.4 语言模型的自适应 5.5 语言模型应用举例 ; 5.1 基本概念 大规模语料库的出现为自然语言统计处 理方法的实现提供了可能,统计方法的成功 使用推动了语料库语言学的发展。 基于大规模语料库和统计方法,可以 - 发现语言使用的普遍规律 - 进行机器学习、自动获取语言知识 - 对未知语言现象进行推测; 5.1 基本概念 如何计算一段文字(句子)的概率? 阳春三月春意盎然,少先队员脸上荡 漾着喜悦的笑容,鲜艳的红领巾在他们 的胸前迎风飘扬。 ? 以一段文字(句子)为单位统计相对频率? ? 根据句子构成单位的概率计算联合概率? p(w1)×p(w2)×…×p(wn); 5.1 基本概念 语句 s = w1 w2 … wm 的先验概率 P(s) = P(w1)×P(w2|w1)×P(w3|w1w2)×… ×P(wm|w1…wm-1); 5.1 基本概念 说明: (1) wi 可以是字、词、短语或词类等等,称 为统计基元。通常以“词”代之。 (2) wi 的概率由 w1, …, wi-1 决定,由特定的 一组w1, …, wi-1 构成的一个序列,称为 wi 的历史(history)。; 5.1 基本概念 ;L;NLPR, CAS-IA;H2:; 5.1 基本概念 这种情况下的语言模型称为 n 元文法(n-gram)。 通常地, ?当 n=1 时,即出现在第 i 位上的基元 wi 独立于历 史,n-gram 被称为一阶马尔柯夫链(uni-gram 或 monogram) ?当 n=2 时, n-gram 被称为2阶马尔柯夫链(bi-gram) ?当 n=3 时, n-gram 被称为3阶马尔柯夫链(tri-gram); 5.1 基本概念 为了保证条件概率在 i=1 时有意义,同时为了 保证句子内所有字符串的概率和为 1,即 ? s p ( s ) ? 1 ,可以在句子首尾两端增加两个标志: BOS w1w2 … wm EOS。不失一般性,对于n2 的 n-gram,P(s) 可以分解为:; 5.1 基本概念 ? 举例: 给定句子:John read a book 增加标记:BOS John read a book EOS 2元文法的概率为: P(John read a book) = P(John|BOS)× P(read|John)×P(a|read)× P(book|a)×P(EOS|book); 5.1 基本概念 ?应用-1:音字转换问题 给定拼音串:ta shi yan jiu sheng wu de 可能的汉字串:踏实研究生物的 他实验救生物的 他使烟酒生物的 他是研究生物的 … …; 5.1 基本概念 ; 5.1 基本概念 CString = {踏实研究生物的, 他实验救生物的,他是 研究生物的, 他使烟酒生雾的,… …} 如果使用 2-gram: P(CString1) =P(踏实|BOS)×P(研究|踏实)× P(生物|研究)×P(的|生物)×P(EOS|的) P(CString2) =P(他|BOS)×P(实验|他)×P(救|实验)× P(生物|救)×P(的|生物)×P(EOS|的) ……; 5.1 基本概念 如果汉字的总数为:N ? 一元语法:1)样本空间为 N 2)只选择使用频率最高的汉字 ? 二元语法:1)样本空间为 2)效果比一元语法明显提高 ? 估计对汉字而言四元语法效果会好一些 ? 智能狂拼、微软拼音输入法基于 n-gram.; 5.1 基本概念 ?应用-2:汉语分词问题 给定汉字串:他是研究生物的。 可能的汉字串: 1) 他|是|研究生|物|的 2) 他|是|研究|生物|的; 5.1 基本概念 ; 5.1 基本概念 如果采用2元文法: P(Seg1) =P(他|BOS)×P(是|他)×P(研究生|是)× P(物|研究生)×P(的|物)×P(的|EOS) P(Seg2) = P(他|BOS)×P(是|他)×P(研究|是)× P(生物|研究)×P(的|生物)× P(的|EOS) 问题:如何获得 n 元语法模型?;5.1 基本概念 5.2 参数估计 5.3 数据平滑 5.4 语言模型的自适应 5.5 语言模型应用举例 ; 5.2 参数估计 ?两个重要概念: ? 训练语料(

文档评论(0)

xcs88858 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

版权声明书
用户编号:8130065136000003

1亿VIP精品文档

相关文档