1. 1、本文档共14页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
11PCA降维

机器学习 第十一讲 张兆翔 课程回顾 蒙特卡洛采样法 注:不能够准确知道 ,而只能知道比例  首先产生一个采样点 ;  根据建议概率 产生新的采样点;  依次类推,产生马尔可夫链 ;  要求 尽可能简单,便于产生采样点;  有一个准则去决定是接受还是拒绝产生的采样点 Metropolis采样方法(1953年)  建议概率:  接受概率:  在(0,1)的均匀分布上获得采样点 ;  如果 接受,否则拒绝; Metropolis‐Hastings算法  建议概率: 根据 产生采样  接受概率: 是否满足不变性 如果 Gibbs采样(1984)  一种特殊的Metropolis‐Hastings采样算法  针对多元分布进行处理 每次只改变一个维度上的值,保持其他维度不变 在第 步,假设已产生 根据 产生 根据 产生 根据 产生 Gibbs采样与Metropolis‐Hastings采样的关系  建议概率: 根据 产生采样  接受概率: 数据降维 数据的维数问题  “3”本身的形状可以用部分维数表达;  “3”形状的旋转、平移增加了部分维数;  “3”形状的放大、缩小增加了部分维数;  不同人手写“3”的特色增加了部分维数;  噪声、光照、干扰、…. 1、线性判别分析LDA 尽可能使类内距离较小,类间距离较大 类间离散度: 类内离散度: 1、线性判别分析LDA 求导: 1、线性判别分析LDA 2、主成份分析PCA  Principal Component Analysis  使得降维后的样本方 差尽可能大;  使得降维后的数据均 方误差尽可能小; 2、主成份分析PCA‐最大方差思想  基本思想:使降维后的数据方差尽可能大 将D维数据集 , 降维成M维  第一步、降到1维的话 原均值: 原方差: 最大 变换后方差: 2、主成份分析PCA‐最大方差思想 Maximize: s. t. 结论:  降维后方差所对应的是协方差矩阵的特征值;  为了使方差最大,选择最大的特征值;  最大特征值所对应的特征向量为最佳投影方向; 2、主成份分析PCA‐最大方差思想  很多情况下,M1;  首先获得方差最大的1维,然后在该维的补空间上考虑 问题;  在补空间中获得方差最大的1维;进一步获得补空间;  依次循环下去。 有D个特征值,降成M维即是挑选前M个较大的特征值;

文档评论(0)

wnqwwy20 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

版权声明书
用户编号:7014141164000003

1亿VIP精品文档

相关文档