网站大量收购闲置独家精品文档,联系QQ:2885784924

统计学习理论和SVM(支持向量机).ppt

  1. 1、本文档共10页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多

统计学习理论和SVM(支持向量机)主要内容统计学习理论的核心内容支持向量机(1)标准的最优分类面(2)广义最优分类面(3)变换到高维空间的支持向量机感受统计学习理论的核心内容统计学习理论是小样本统计估计和预测学习的最佳理论。假设输出变量Y与输入变量X之间存在某种对应的依赖关系,即一未知概率分布P(X,Y),P(X,Y)反映了某种知识。学习问题可以概括为:根据l个独立同分布(independentlydrawnandidenticallydistributed)的观测样本trainset,12学习到一个假设H=f(x,w)作为预测函数,其中w是广义参数.它对P(X,Y)的期望风险R(w)是(即统计学习的实际风险):首先Remp(w)和R(w)都是w的函数,传统概率论中的定理只说明了(在一定条件下)当样本趋于无穷多时Remp(w)将在概率意义上趋近于R(w),却没有保证使Remp(w)最小的点也能够使R(w)最小(同步最小)。而对trainset上产生的风险Remp(w)被称为经验风险(学习的训练误差):010201根据统计学习理论中关于函数集的推广性的界的结论,对于两类分类问题中的指示函数集f(x,w)的所有函数(当然也包括使经验风险员小的函数),经验风险Remp(w)和实际风险R(w)之间至少以不下于1-η(0≤η≤1)的概率存在这样的关系:h是函数H=f(x,w)的VC维,l是样本数.一般的学习方法(如神经网络)是基于Remp(w)最小,满足对已有训练数据的最佳拟和,在理论上可以通过增加算法(如神经网络)的规模使得Remp(w)不断降低以至为0。但是,这样使得算法(神经网络)的复杂度增加,VC维h增加,从而φ(h/l)增大,导致实际风险R(w)增加,这就是学习算法的过度拟和(Overfitting).支持向量机SupportVectorMachines支持向量机比较好地实现了有序风险最小化思想(SRM)如上图的训练样本,在线性可分的情况下,存在多个超平面(Hyperplane)(如:H1,H2….)使得这两类被无误差的完全分开。这个超平面被定义为:01其中W.X是内积(dotproduct),b是标量。。02OptimalHyperplane(最优超平面)是指两类的分类空隙最大,即每类距离超平面最近的样本到超平面的距离之和最大。距离这个最优超平面最近的样本被称为支持向量(SupportVector)。0103050204Margin=H1平面:H2平面:…..(2)…..(1)Subjectto:01Minimum:求解最优超平面就相当于,在(2)的约束条件下,求(1)的最大值01广义最优分类面在线性不可分的情况下,就是某些训练样本不能满足式(2)的条件,因此可以在条件中增加一个松弛项ζ,约束条件变成:

您可能关注的文档

文档评论(0)

135****7720 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档