机器学习4.1 决策树1.pptVIP

  1. 1、本文档共10页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

例子:算法过程RefundYesNo假设选择MarSt为最优分割属性:3.samples={2,3,5,6,8,9,10}attribute_list={MarSt,TaxInc}NOMarStSingleMarriedDivorced4.samples={3,8,10},attribute_list={TaxInc}5.samples={5},attribute_list={TaxInc}6.samples={2,9},attribute_list={TaxInc}例子:算法过程RefundYesNo选择TaxInc为最优分割属性:4.samples={3,8,10}attribute_list={TaxInc}NOMarStSingleMarriedDivorcedTaxInc80K=80KYESNO问题1:分类从哪个属性开始?——选择分裂变量的标准问题2:为什么工资以80为界限?——找到被选择的变量的分裂点的标准(连续变量情况)分类划分的优劣用不纯性度量来分析。如果对于所有分支,划分后选择相同分支的所有实例都属于相同的类,则这个划分是纯的。对于节点m,令为到达节点m的训练实例数,个实例中个属于类,而。如果一个实例到节点m,则它属于类的概率估计为:节点m是纯的,如果对于所有i,为0或1。当到达节点m的所有实例都不属于类时,为0,当到达节点m的所有实例都属于类时,为1。一种度量不纯性的可能函数是熵函数(entropy)。Fatherofinformationtheory证明熵与信息内容的不确定程度有等价关系系统科学领域三大论之一C.Shannon的信息论信息熵熵(entropy)描述物质系统状态:该状态可能出现的程度。平均信息量若一个系统中存在多个事件E1,E2,…En每个事件出现的概率是p1,p2,…pn则这个系统的平均信息量是指的是系统的混乱的程度!(bits)?系统越无序、越混乱,熵就越大。?构造决策树,熵定义为无序性度量。?选择一个属性划分数据,使得子女节点上数据的类值(例中“yes”或“no”)大部分都相同(低无序性)。?如果一个节点上的数据类值在可能的类值上均匀分布,则称节点的熵(无序性)最大。?如果一个节点上的数据的类值对于所有数据都相同,则熵最小。?通过分裂,得到尽可能纯的节点。这相当于降低系统的熵。例子气象数据集什么因素影响是否去打网球?OutlookTemperatureHumidityWindyPlay?sunnyhothighfalseNosunnyhothightrueNoovercasthothighfalseYesrainmildhighfalseYesraincoolnormalfalseYesraincoolnormaltrueNoovercastcoolnormaltrueYessunnymildhighfalseNosunnycoolnormalfalseYesrainmildnormalfalseYessunnymildnormaltrueYesovercastmildhightrueYesovercasthotnormalfalseYesrainmildhightrueNo1.基于天气的划分2.基于温度的划分3.基于湿度的划分4.基于有风的划分构造树训练样本的信息值,即熵的描述第一棵树,属性,各叶节点的信息值第一棵树,属性,导致的信息增益依次,计算每棵树导致的信息增益选择获得最大信息增益的属性进行划分以此类推,递归,继续划分当所有叶节点都是纯的,划分过程终止下面看具体例子分析(1)训练样本的信息值(基于类的比例)?训练样本(用来创建树的数据集)在包含9个yes和5个no的根节点上,对应于信息值info([9,5])=0.940位→总的信息(2)第一棵树,属性,各叶节点的信息值?基于天气(outlook)的划分,在叶节点的yes和no类的个数分别是[2,3],[4,0],和[3,2],而这些

您可能关注的文档

文档评论(0)

godcoovAuxsv + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档