- 1、本文档共11页,可阅读全部内容。
- 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
模式识别课程论文分析
模式识别课程设计
模式识别中基于概率统计的 Bayes 算法分析,计算机识别或者机器自动识别,目的在于让机器自动识别事物,如手写数字的识别,智能交通管理信号的识别,文字识别,语音识别等。模式识别这个学科的目的就是让机器能做人类能做的事情,具备人类所具有的对各种事物与现象进行分析,描述与判断的部分能力。模式识别是直观的,无所不在。人与动物具有模式识别的能力是非常平常的事情,但是对计算机来说实现模式识别是非常困难的。让机器能够识别,分类需要研究识别的 方法。而模式识别可以概括为两个类型,一个是直接形象的,例如图片,相片,图案,字符图案等;另外的就是无知觉形象而只有数据或信号的波形,如语音,声音,心电图,地震波等。
Bayes决策所讨论的问题:
基于最小错误率的Bayes决策指出机器自动识别出现错分类的条件,错分类的可能性如何计算,如何实现使错分类实现可能性最小;基于最小错误风险的Bayes决策,引入了风险与损失概念,希望做到使风险最小,减小危害大的错分类情况。错分类造成损失不一样,不同的错误分类造成的损失也是不一样的,不同的错误分类造成的损失会不相同,后一种错误更加可怕,因此就考虑减小因错误分类造成的危害损失。
2.Bayes算法
若已知总共有M类物体,以及各类在这d维特征空间的统计分布,具体说来就是已知各类别wi=1,2,…M的先验概率P(wi)及类条件概率密度函数P(X|wi)。对于待测样品,Bayes公式可以计算出该样品分属于各类别的概率,叫做后验概率,看X属于哪个类的可能性最大,就把X归于可能性最大的那个类,后验概率作为识别对象归属的依据。Bayes公式如下:
识别的状态就是一个随机变量,而某种状态出现概率是可以估计的。Bayes公式体现了先验概率,类概率密度函数,后验概率三者之间的关系。
2.1先验概率P(wi)
先验概率P(wi)针对M个事件出现的可能性而言,不考虑其他条件。例如由统计资料表明总药品数为n,其中正常药品数为n1,异常药品数为n2,则
称P(w1)和P(w2)为先验概率。显然在一般情况下正常药品所占比例比较大,即P(w1)P(w2),仅按照先验概率来决策,就会把所有药品都划归为正常药品,并没有达到将正常药品与异常药品区分开的目的。这表明先验概率所提供的信息太少。
2.2类条件概率密度函数
P(X/wi)是指在已知某类别的特征空间中,出现特征值X的概率密度,即第wi类样品它的属性X是如何分布的。
在工程上很多的问题中,统计数据往往满足正态分布规律。正态分布简单,分析方便,参量少,是一种适宜的数学模型。如果采用正态密度函数是作为类条件概率密度的函数形式,则函数内的参数如期望方差是未知的,那么问题就变成了如何利用大量样品对这些参数进行估计,只要估计出这些参数,类条件概率密度函数P(X|wi)也就可以确定了。单变量正态分布概率密度函数为:
其中:u为数学期望(均值);为方差。
多维正态密度函数为:
其中:S为N维协方差矩阵;S^-1为S的逆矩阵=(u1,u2,…,un)为N维均值向量;X=(x1,x2,…,xN)为N维特征向量
在大多数情况下,类条件概率密度函数是可以采用多维变量的正太概率密度函数来模拟,即:
2.3后验概率
后验概率是指呈现状态X时,该样品分属各类别的概率,这个概率值可以作为识别对象归属的依据。由于属于不同类的待识别对象存在着呈现相同的观察值的可能,即所观察到的某一样品的特征向量为X,而在类中有不止一类可能呈现这一值,它属于各类的概率可用P(wi|X)表示。可以利用Bayes公式来计算这条件概率,称之为状态的后验概率:
P(wi|X)是表示在X出现条件下,样品为wi类的概率。
2.4 P(w1|X)和P(w2|X)与P(X|w1)和P(X|w2)的区别
P(w1|X)和P(w2|X)是在同一条件下,比较w1与w2出现的概率,如P(w1|X)P(w2|X),则可能的以下结论,在X条件下,事件w1出现的可能性比事件w2出现的可能性大。
P(w1|X)与P(w2|X)都是指各自条件下出现X的可能性,两者之间没有联系,比较两者没有意义。P(w1|X)与P(w2|X)是在不同条件下讨论问题,不能因为P(w1|X)P(w2|X),就认为X是第一类事物的可能性较大。
3算法的实现
3.1基于最小错误率Bayes分类实现数字样品的识别实现:
在手写的数字识别中属于多类情况,每类样品呈正态分布。
(1)求出每一类手写数字样品的均值
Ni代表wi类的样品个数,n代表特征数目。
(2)求每一类的协方差矩阵
L代表样品在wi类中的序号,其中l=0,1,2,…,Ni。
Xlj代表wi类的第L个样品,第J个特征值
文档评论(0)