网站大量收购闲置独家精品文档,联系QQ:2885784924

第9章_隐马尔可夫模型试卷.ppt

  1. 1、本文档共99页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
HMM的一些实际问题(续) 数值计算中的防溢出处理 在前向算法、Viterbi算法以及Baum-Welch算法中,概率值的连续乘法运算很容易导致下溢现象。 解决办法: 1.前向算法中:每一个时间步的运算中都乘以一 个比例因子 2.Viterbi算法中:对概率值取对数后计算 Viterbi算法:连乘积→对数求和 前向算法:引入比例因子 其中,比例因子 HMM总结 HMM模型可以看作一种特定的Bayes Net HMM模型等价于概率正规语法或概率有限状态自动机 HMM模型可以用一种特定的神经网络模型来模拟 优点:研究透彻,算法成熟,效率高,效果好,易于训练 人有了知识,就会具备各种分析能力, 明辨是非的能力。 所以我们要勤恳读书,广泛阅读, 古人说“书中自有黄金屋。 ”通过阅读科技书籍,我们能丰富知识, 培养逻辑思维能力; 通过阅读文学作品,我们能提高文学鉴赏水平, 培养文学情趣; 通过阅读报刊,我们能增长见识,扩大自己的知识面。 有许多书籍还能培养我们的道德情操, 给我们巨大的精神力量, 鼓舞我们前进。 * 例(续) 2.当t=2时: 3.当t=3时: 例(续) 4.当t=4时: 所以最终有: P(O| λ)= ?4(1)+ ?4(2)+ ?4(3)=0.0717696 即观察序列O由HMM模型?产生的概率 例(续) 最后将其计算过程示意图表示如下: 前向变量图示 后向变量 类似前向变量而定义后向变量βt(i),作为在时刻t处于状态Si并观测到部分序列Ot+1,…,OT的概率。 βt(i)=P(Ot+1…OT|qt=Si, λ) 递归计算 后向算法 后向变量图示 后向变量: 问题 二—解码问题 给定观测序列O={O1O2…OT}和HMM的模型λ,计算与序列O相对应的最佳状态序列Q={q1q2…qT}。 所求的 Q 应当在某个准则下是 “ 最优 ” 的 , 因此也称 Q 为最优路径 , 解码问题即是确定最优路径的问题。 解决问题二—Viterbi算法 Viterbi 算法也是类似于前向算法的一种网格结构 定义δt(i)为时刻t沿状态序列q1,q2,…,qt且 qt=Si产生出 O1,…,Ot的最大概率,即: Viterbi算法(续) 目标:给定一个观察序列和HMM模型,如何有效选择“最优”状态序列,以“最好地解释”观察序列 “最优”→概率最大: 思想:利用动态规划求解,复杂性O(N2T) Viterbi变量: 递归关系: 记忆变量: 记录概率最大路径上当前状态的前一个状态 Viterbi算法(续) 初始化: 递归: 终结: 从时刻T开始,进行路径回溯: 例子(Viterbi算法应用) HMM模型如下,试根据Viterbi算法计算产生观察符号序列O={ABAB}的最优状态序列Q。 状态集Q{S1,S2,S3} 观察序列集O={A,B} 例(续) ?初始概率矩阵π=(1,0,0), 即开始时处于状 态1。按照上面的公式,我们依次递推解出 , 以及 。解法如下: 1.当t=1时: 例(续) 2.当t=2时: 3.当t=3时: 例(续) 4.当t=4时: 例(续) 其递推结果为: 可以看出,最有可能的状态序列是: S1,S2,S2,S2. 例(续) 其计算结果示意图如下所示: 绿色的箭头表示最有可能的状态序列 问题三—学习问题 也称训练问题、参数估计问题 给定一系列观测样本,从中确定产生出这些序列的模型λ(π,A,B),以满足某种最优化准则,使得观察序列的概率P(O|λ)最大。 状态序列已知情况 可以由最大似然估计来估计HMM的参数: EM(Expectation-Maximization)算法 由于HMM中的状态序列是观察不到的(隐变量),以上的最大似然估计不可行。EM算法可用于含有隐变量的统计模型的最大似然估计。 EM算法是一个由交替进行的“期望(E过程)”和“极大似然估计(M过程)”两部分组成的迭代过程: · 对于给定的不完全数据和当前的参数值,“E过程”从条件期望中相 应地构造完全数据的似然函数值,“M过程”则利用参数的充分统计 量,重新估计概率模型的参数,使得训练数据的对数似然最大。 EM算法的每一次迭代过程必定单调地增加训练数据的对数似然值,于是迭代过程渐进地收敛于一个局部最优值。 定义 ξt(i,j)为给定全部观察序列O和λ, 在时刻t处于状态i,时刻 t + 1

文档评论(0)

502992 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档