遥感数字图像处理-第五章 遥感数字图像的计算机分类(一)2016解析.ppt

遥感数字图像处理-第五章 遥感数字图像的计算机分类(一)2016解析.ppt

  1. 1、本文档共83页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
* * 最大最小距离选心法(效果最好) 选心原则:各初始类别之间尽可能保持远距离 * 先抽样,设有n个样本,计算步骤: * 非监督分类的主要算法 ISODATA法(迭代自组织数据分析技术) 基本思想:在初始类别参数选定的基础上,通过逐步趋近求出实际的基准类别参数。 * 算法流程: * * * * 总结:以初始类别为“种子”进行自动迭代聚类过程,它可以自动地进行类别的“合并”与“分裂”,其各个参数也在不断地聚类调整中逐渐确定,并最终构成所需要的判别函数。 因此,基准类别参数的确定过程,也正是利用光谱特征本身的统计性质对判别函数的不断调整和“训练”的过程。 * K-mean算法 基本思想:通过迭代,移动各个基准类别的中心,得到最好的聚类结果。 聚类准则(收敛条件):使每一聚类中,多模式点到该类别的中心的距离的平方和最小。即:对于图像中互不相交的任意一类,计算该类中的像素值与该类均值差的平方和。将图像中所有类的差的平方和相加,并使相加后的值达到最小! * 第i类中,所有像元到该类中心差的平方和 总类数m,所有像元到该类中心差的平方和 * K-mean算法的计算步骤: * K-mean算法与ISODATA算法的区别: (1)ISODATA算法它不是每调整一个样本的类别就重新计算一次各样本的均值,而是在把所有的样本都调整完之后才重新计算。 (2) K-mean算法是逐个样本修正法, ISODATA算法是成批样本修正法; (3) ISODATA算法不仅可以通过调整样本所属类别完成样本的聚类分析,而且可以自动地进行类别“合并”与“分裂”,从而得到类数比较合理的聚类结果。 * 4-3-2假彩色合成图像 非监督分类(聚类)结果: 15个光谱类 非监督分类 * 非监督分类 1. 4-3-2假彩色合成图象(香港九龙); 2. 聚类结果(10类) * 3. 聚类结果合并(5类); 4. 最终结果 (类别颜色改变) 监督分类与非监督分类的比较 根本区别:是否利用训练场地来获取先验的类别知识。 监督分类的关键是选择训练场地。 监督分类法优点:简单实用,运算量小。 缺点:受训练场地个数和训练场典型性的影响较大。受环境影响较大,随机性大。训练场地要有代表性,样本数目要能够满足分类要求。此为监督分类的不足之处。 非监督分类优点:事先不需要对研究区了解,减少人为因素影响,减少时间,降低成本。不需要更多的先验知识,据地物的光谱统计特性进行分类。 缺点:运算量大。当两地物类型对应的光谱特征差异很小时,分类效果不如监督分类效果好。 * 非监督分类与监督分类的结合 通过非监督法将一定区域聚类成不同的单一类别,监督法再利用这些单一类别区域“训练”计算机。通过“训练”后的计算机将其它区域分类完成,这样避免了使用速度比较慢的非监督法对整个影像区域进行分类,使分类精度得到保证的前提下,分类速度得到了提高。 步骤: 第一步:选择一些有代表性的区域进行非监督分类。 这些区域的选择与监督法分类训练样区的选择要求相反,监督法分类训练样区要求尽可能单一。而这里选择的区域包含类别尽可能地多,以便使所有感兴趣的地物类别都能得到聚类。 第二步:获得多个聚类类别的先验知识。这些先验知识的获取可以通过判读和实地调查来得到。聚类的类别作为监督分类的训练样区。 第三步:特征选择。选择最适合的特征图像进行后续分类。 第四步:使用监督法对整个影像进行分类。根据前几步获得的先验知识以及聚类后的样本数据设计分类器。并对整个影像区域进行分类。 第五步:输出标记图像。由于分类结束后影像的类别信息也已确定。所以可以将整幅影像标记为相应类别输出。 * * Bayes准则及判别函数 X属于wi类的概率,又称后验概率,即像元X出现在wi的最大概率 * 假设有两类,如图。概率判别函数的判别边界为d1(X)和d2(X),当使用概率判别函数进行分类时,不可避免会出现错分现象,分类错误的总概率由后验概率函数重叠部分下的面积给出。错分概率是类别判别分界两侧做出不正确判别的概率之和。 Bayes判别边界使这个数最小,因为这个判别边界无论向左还是向右都将包括不是1类便是2类的一个更大面积,从而增加总的错分概率。故:Bayes判别规则是错分概率最小的最优准则。 * 最大似然法和最小距离法分类错分比较 假设有两类w1和w2,其后验概率分布如图。 最小距离按欧氏距离或计程距离计算(因马氏距离不仅与均值向量有关,还与协方差矩阵有关,更复杂)。 结论: 最大似然法的错分概率小于最

您可能关注的文档

文档评论(0)

2299972 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档