网站大量收购闲置独家精品文档,联系QQ:2885784924

崔鹏-稳定学习全景图梳理.docx

  1. 1、本文档共28页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
梳理「稳定学习」全景图 原 导语 尽管基于相关性的机器学习在很多领域都取得了成功,但是虚假相关带来的潜在风险还是限制了这些模型在不少风险敏感领域的应用。稳定学习被提出来应对这个挑战,它试 图在不影响模型性能的情况下构建更加可信的机器学习模型。在今年的2月23日,清华大学计算机系崔鹏副教授与斯坦福大学Susan Athey( 美国科学院院士, 因果领域国际权威) 合作,在全球顶级期刊Nature Machine Intelligence(影响因子IF=15.51,2020)上发表了 题 为 “Stable Learning Establishes Some Common Ground Between Causal Inference and Machine Learning”(稳定学习:建立因果推断和机器学习的共识)的观点论文,深入探讨和总结了因果推理在机器学习和人工智能领域取得的关注,提出机器学习和因果推理之间应该形成共识,而稳定学习正在向实现这一目标的方向迈进。这篇推文基于上述学术观点,综述了稳定学习的一系列进展,试图为读者提供一幅关于这一研究方向的全景图。 集智俱乐部联合零犀科技推出因果派品牌并策划系列活动。在7月2日14:00-17:00因果派论坛第一期「 因果革命——下一代可信AI」上,我们邀请到崔鹏老师以「推荐系统的分布外泛化」做报告,详情见文末,欢迎大家报名参与~ 研究领域:机器学习,稳定学习 丁善一、陈天豪、葛春江 | 作者 邓一雪 | 编辑 目录 目录 导言 〇、机器学习面临的挑战一、稳定学习的提出 二、稳定学习的主要方法三、稳定学习的应用 四、小结 〇、机器学习面临的挑战 机器学习模型已经在许多面向互联网的场景取得成功。在诸如预测点击量或对图像 进行分类等应用场景中,模型做出错误决策的代价似乎并不高,因此从业者采用“性 能驱动”的模式优化人工智能技术,即只关注该模型在完成目标任务时体现出的性能 而不太关注技术发生错误时的风险。当任务环境发生变化,预测出现错误的时候, 人们通过频繁地更新黑盒模型以保证预测的性能。然而,在诸如医疗保健、工业制 造、金融和司法等与社会生活息息相关的领域,机器学习模型做出的错误预测的后 果往往是难以接受的,这些场景也因此被称为风险敏感的场景。由于数据获取困难 以及伦理问题,在风险敏感的场景中因为环境变化而重新训练机器学习模型的代价 会比较昂贵,因此模型的短期预测性能之外的特性也十分重要。为了促进机器学习 模型在更多风险敏感场景的应用,我们需要仔细分析机器学习模型面临的技术性风 险,并采取办法克服这些风险。 清华大学崔鹏副教授和斯坦福大学的Susan Athey 在一篇今年发表于Nature Machine Intelligence的观点论文中深入分析了机器学习发风险来源,他们提出缺 乏稳定性、可解释性和公平性是当今机器学习中必须解决的最关键和最紧迫的三个 风险因素,并指出可以利用因果关系的观点来改善机器学习和预测建模。 缺乏稳定性指的是模型在未知环境下预测性能不稳定。由于目前大多数机器学习模 型依赖于I.I.D.假设(Independent and identically distributed),即训练数据集和测试数据集的数据分布是相似的。在实践中,模型的应用环境常常是未知的, 即可能出现的(测试数据集)分布是无法完全预见的,I.I.D.假设在这时会被破坏, 模型的性能无法保证。缺乏可解释性是由于目前大多数现成的机器学习模型都是黑 盒模型:算法过程和预测结果都不容易向人类解释。在风险敏感领域,由于错误决 策会导致严重的后果,往往需要让人类留在决策循环中成为决策的最终的看门人。 此时,通用的语言来让算法和人类理解和合作是必要的。最后,主流的机器学习模 型可能会放大数据中存在的偏差,从而导致不公平的结果,因此是缺乏公平性的。 因为常见的机器学习算法是基于输入变量和输出变量的相关性做预测,当它遇到变 量之间的虚假相关时,便无法避免上述三个风险因素。数据中的相关性能归类成三 种模式: 因果导致的相关, 混淆导致的相关和选择性偏差导致的相关, 如图1 所示。 图1:相关性的三种模式,(a)因果相关;(b)混淆导致的相关;(c)数据选择性偏差导致的相关。 在这三种产生相关性的模式中,只有因果关系产生的相关性反映了变量之间的内在 依赖关系;另外两种类型是对特征的联合分布和数据收集过程敏感的虚假相关。由 于黑盒模型甚至没有尝试区分产生这些相关性的三种不同模式,它们的预测性能在 很大程度上取决于测试分布与训练分布的偏离程度,从而导致在不同的测试分布下 性能不稳定。同时,基于虚假相关性的预测模型也可能是不公平

文档评论(0)

我爱分享 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档