- 1、本文档共33页,可阅读全部内容。
- 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
汉堡一烧饼二新庄
Cross Validation and Tree Pruning Unseen data Training data (# splits) 未完成分割的subset,以多數決進行決策 Random Forest (RF) Leo Breiman, 2001 Random resampling (Bootstrapping) Not requiring cross validation Decision by Voting * Decision Tree 魏志達 Jyh-Da Wei Induction of Decision Tree (1) Attributes = {Outlook, Temperature, Humidity, Wind} Outlook Humidity Wind sunny overcast rain no no yes high normal no strong weak yes PlayTennis = {yes, no} 1.Why not Humidity? 2. For what? Induction of Decision Tree (2) Attributes = {主審, 天氣, 對決投手, 場地} 場地 天氣 對決投手 台南 洲際 新莊 A隊勝 B隊勝 合局 陰 晴 3 branches Results = {A隊勝, B隊勝, 合局} A1:B1~B3 A2~A3:B1~B3 A隊勝 主審 6 branches 讓重要的資訊往 ROOT方向集中 9 branches 機率事件= {yes, no} 或 {A勝, B勝, 合局} (Random variable ? Event) Decision Tree = 切割樣本空間(使它越來越不亂) (1) Self-Information (事件) (2) Entropy (樣本空間) attr1 attr2 attr3 … result 樣本空間 (sample space) Self-information log2(1/pi) = - log2(Pi) 壹電視主播蕭彤雯 Self-information log2(1/pi) = - log2(Pi) e.g. 新聞價值在於資訊量 人狗相遇{狗咬人,人咬狗,和平} 發生機率高? information 少 發生機率低? information 多 但這個母體的總資訊含量如何? ?計算所有事件Self-info. 按機率之比重和(期望值) e.g.2: 體育賽事 {A勝,B勝} 對戰組合好看,就必須每場 的勝負都含有一定的資訊。 i.e. 勢均力敵,雙方皆非必勝 母體的總資訊稱為熵(entropy)。 熵值 (entropy) 樣本空間的entropy是各項log2(1/pi) 按機率的比重和,因此它代表在資訊來源S集合中每一個事件所含的資訊期望值。熵值又稱亂度。 Self-Information (事件) Entropy (事件的樣本空間) Review: 新聞的價值 就新聞價值方面 其他因素: 成本/ 生活必需性/人性劣根性/ 政治服務 單一事件是否值得報導? Self-information 發生機率低= 資訊含量高 是否值得成立常態性新聞小組? Entropy (就以下各例比較極端狀況) 人狗相遇{狗咬人,人咬狗,和平} 台北下雪{yes, no} 體育賽事{A勝, B勝} {總冠軍: A/B/C/D} 今天下雪嗎? 台北今天 下雪的機率 = p1 不下雪的機率 = p2 是否下雪 {yes, no} 這個樣本空間的熵值? 2016/1/23- 「帝王級寒流」襲台 台灣北部低海拔山區 陸續降雪,引發媒體 接力報導。 熵值 (entropy)值與編碼定律 資訊來源S集合中,將每個「事件」視為每個「符號(symbol)」之發生,則熵值可在資訊理論中被證明為每個符號編碼所需的平均bit數。亂度越高則編碼需要更多長度。 機率全數集中在1事件(符號) h = 0, length=0 機率分散在2事件(令符號0,1) 0 h ≦1, 0length ≦ 1 機率平均分散在256事件 h =8, length=8 Example (m=2) p1=1, p2=0 Entropy h = 0 p1=p2=1/2 Entropy h = 1 h=I(S)= f(p)= f(p) Example (m=4) p1=1, p2=p3=p4=0 Entropy h = 0 p1=p2=1/2, p3=p4=0 Entropy h = 1 p1=p2=p3=p4=1/4 Entropy h = 2 Thi
您可能关注的文档
最近下载
- 德邦快递_销售体系优化项目_销售体系现状分析报告v1.0_20150413汇报版.pptx VIP
- 必威体育精装版子宫颈高级别上皮内病变管理的中国专家共识2022(完整版).pdf
- 雨棚清单报价表格.docx
- 光电图像处理-PPT课件(全).pptx
- 《初中英语阅读课“教-学-评”一体化的实践研究》课题研究方案.doc
- YC_T 10.4-2018烟草机械 通用技术条件 第4部分:灰铸铁件.pdf
- 一种应用于港口无人集卡的路径调度仿真测试方法、系统及介质.pdf VIP
- 人教版八年级地理上册《4-3 工业》教学课件PPT初二优秀公开课.pptx
- 5.2吸收借鉴优秀道德成果.pptx
- 消费者债务清理条例 - 司法院.doc VIP
文档评论(0)