- 1、本文档共63页,可阅读全部内容。
- 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
machine learning and data mining 2004 流形学习问题 - read
特征约简 LLE算法示意图 LLE算法的求解 1 计算每一个点 的近邻点. 2 对于点 和它的近邻点的权值 , 3 令 , 低维嵌入 是 M 的最小的第 2到第 d+1 个特征向量. LLE算法的例子(1) LLE算法的例子(2) LLE算法的优点 LLE算法可以学习任意维的局部线性的低维流形. LLE算法中的待定参数很少, K 和 d. LLE算法中每个点的近邻权值在平移, 旋转,伸缩变换下是保持不变的. LLE算法有解析的整体最优解,不需迭代. LLE算法归结为稀疏矩阵特征值计算, 计算复杂度相对较小, 容易执行. LLE算法的缺点 LLE算法要求所学习的流形只能是不闭合的且在局部是线性的. LLE算法要求样本在流形上是稠密采样的. LLE算法中的参数 K, d 有过多的选择. LLE算法对样本中的噪音很敏感. R 多维尺度变换 (MDS) MDS 是一种非监督的维数约简方法. MDS的基本思想: 约简后低维空间中任意两点间的距离 应该与它们在原高维空间中的距离相同. MDS的求解: 通过适当定义准则函数来体现在低维空间 中对高维距离的重建误差, 对准则函数用梯度下降法求解, 对于某些特殊的距离可以推导出解析解法. MDS的准则函数 MDS的示意图 MDS的失效 建立在多维尺度变换(MDS)的基础上, 力求保持数据 点的内在几何性质, 即保持两点间的测地距离. 等距映射(Isomap)的基本思想 Isomap的前提假设 1 高维数据所在的低维流形与欧氏空间的一个子集是整 体等距的. 2 与数据所在的流形等距的欧氏空间的子集是一个凸集. 估计两点间的测地距离: 1 离得很近的点间的测地距离用欧氏距离代替. 2 离得较远的点间的测地距离用最短路径来逼近. Isomap算法的核心 测地距离估计 Isomap算法 1 计算每个点的近邻点 (用K近邻或 邻域). 2 在样本集上定义一个赋权无向图 如果 和 互为近邻点, 则边的权值为 3 计算图中两点间的最短距离, 记所得的距离矩阵为 . 4 用MDS求低维嵌入流形 , 令 低维嵌入是 的第2小到第 d+1小的特征值所对应的特征向量. M. Bernstein, V. Silva, J.C. Langford, J.B. Tenenbaum 证明了如下的渐进收敛定理. 假设采样点是随机均匀抽取的, 则 渐进收敛定理 给定 则只要样本集充分大且适当选择K , 不等式 至少以概率 成立. 图距离逼近测地距离 中国科学院自动化研究所 Machine Learning and Data Mining 2004 流形学习问题 杨 剑 中国科学院自动化研究所 2004年12月29日 维数约简 增加特征数 增加信息量 提高准确性 增加训练分类器的难度 维数灾难 解决办法:选取尽可能多的, 可能有用的特征, 然后根据需要进行特征约简. 特征选择 特征约简 特征抽取 依据某一标准选择性质最突出的特征 经已有特征的某种变换获取约简特征 试验数据分析,数据可视化(通常为2维或3维)等也需要维数约简 线性维数约简方法 流形和维数约简. 流形学习的一些数学基础. 几种流形学习算法简介:LLE, Isomap, Laplacian Eigenmap. 流形学习问题的简单探讨. Outline 线性约简方法 通过特征的线性组合来降维. 本质上是把数据投影到低维线性子空间. 线性方法相对比较简单且容易计算. 两种经典且广泛使用的线性变换的方法: 主成分分析 (PCA); 多重判别分析 (MDA). 主成分分析 ( PCA ) PCA的目的:寻找能够表示采样数据的最好的投影子空间. PCA的求解:对样本的散布矩阵进行特征值分解, 所求子空间为过样本均值, 以最大特征值所对应的特征向量为方向的子空间. Principal component 主成分分析 PCA对于椭球状分布的样本集有很好的效果, 学习所得的主方向就是椭球的主轴方向. PCA 是一种非监督的算法, 能找到很好地代表所有样本的方向, 但这个方向对于分类未必是最有利的. 线性判别分析(LDA)1 LDA是一种监督的维数约简方法. LDA的
文档评论(0)