双百案例课件.ppt

  1. 1、本文档共161页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
双百案例课件

Kappa检验 Kappa统计量是Cohen在1960年首先提出的一种旨在校正机遇可能后衡量一致性的方法。使用于衡量两个评分员或调查人员,诸如调查结果、诊断工作、实验结果等的符合程度。 甲调查员 乙调查员 合计 阳性 阴性 阳性 a c a+c 阴性 b d b+d 合计 a+b c+d N 相关定义 Kappa检验标准 Kappa值一般在-1到1之间,如果观察一致性大于机遇一致性,则Kappa值在0到1之间;反之,则Kappa值在-1到0之间。Kappa=-1,为完全不一致Kappa=0,说明一致性完全由机遇造成;Kappa=1说明完全一致。 一般而言,Kappa值0.75,表明一致性很强; 0.4---0.75说明一致性中等; 若Kappa0.4,说明一致性较差。 广义线性回归和SVR异常点检测结果比较 表1 广义线性回归和SVR异常点检测结果比较 SVDD KPCA-SVDD 合计 非异常点 异常点 非异常点 3281 114 3395 异常点 107 66 173 合计 3388 180 3568 广义线性回归和SVR异常点检测方法之间的Kappa=0.3414,认为广义线性回归和支撑向量回归两种检测方法之间具有一致性,但一致性强度较弱 表2 广义线性回归和SNN相似度异常点检测结果比较 SVDD KPCA-SVDD 合计 非异常点 异常点 非异常点 3218 172 3390 异常点 170 8 178 合计 3388 180 3568 广义线性回归和SNN异常点检测结果比较 广义线性回归和SNN相似度的异常点检测方法间的Kappa=-0.0058,故认为两种检测方法的一致性强度差。 SNN相似度和SVR异常点检测结果比较 表3 SNN相似度和SVR异常点检测结果比较 SVDD KPCA-SVDD 合计 非异常点 异常点 非异常点 3227 168 3395 异常点 163 10 173 合计 3390 178 3568 SNN相似度和SVR的异常点检测方法间的Kappa=0.0082 ,故认为两种检测方法的一致性强度差。 三种算法筛检结果的比较结论: 通过Kappa一致性检验,三种方法之间基于广义线性回归的学生化残差的检测方法和基于支撑向量回归的异常数据检测方法之间具有一定的一致性,但两种方法与SNN相似方法的一致性都较差。 * * * * * * * * * Requirements 4 and 5 are satisfied by decomposing a contour into visual parts. The satisfaction of requirements 1,2,3 and 6 follows from the fact that the shapes of the parts are abstracted as ribbons, the representation of body part shapes and their relationships is invariant under translation, rotation, and scaling, and probability distributions are used to accommodate the shape variations among individuals as well as absorbing some variations in shape due to viewpoint. The hierarchical organization of the body parts allows efficient object recognition (requirement 7) in a coarse-to-fine manner. * 方程g(x)=0定义了一个判定面,它把归类于C1的点与归类于C2的点分开来。 当g(x)是线性函数时,这个平面被称为“超平面”(hyperplane)。 当x1和x2都在判定面上时, 这表明w和超平面上任意向量正交, 并称w为超平面的法向量。 超平面 简单情况:在线性可分的情况下的最优分类面 最优分类面 最优分类面 SVM 是从线性可分情况下的最优分类面发展而来的, 基本思想可用下图的两维情况说明. ? 所谓最优分类线就是要求分类线不但能将两类正确分开(训练错误率为0),而且使分类间隔最大. 推广到高维空间,最优分类线就变为最优分类面。 设线性可分的样本集: D维空间中的线性判别函数:     最优分类面 这样分类间隔就等于 ,因此要求分类间隔最大,就要求 最大.而要求分

文档评论(0)

wyjy + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档