网站大量收购独家精品文档,联系QQ:2885784924

2021-2022学年山东省日照市高二下学期期中校际联考语文试题.docx

2021-2022学年山东省日照市高二下学期期中校际联考语文试题.docx

此“教育”领域文档为创作者个人分享资料,不作为权威性指导和指引,仅供参考
  1. 1、本文档共18页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多

试卷第=page11页,共=sectionpages33页

山东省日照市2021-2022学年高二下学期期中校际联考语文试题

一、非连续性文本阅读

阅读下面的文字,完成下面小题。

材料一:

人工智能从诞生伊始,就以“像人类一样思考”为终极目标。在1956年美国达特茅斯会议上,“人工智能”这一概念首次被提出,人类开始设想“让机器能像人类一样认知、思考和学习”。1976年,拉斐尔提出:“人工智能是一门科学,这门科学让机器做人类需要智能才能完成的事。”进入21世纪后,第三次人工智能浪潮开启,人工智能被认为是通过采集和分析大量数据,实现自动学习、分析和推理的智能化机器。英国大数据专家迈尔·舍思伯格指出:“大数据的核心就是预测。它是把数学算法运用到海量数据上来预测事情发生的可能性。”这种基于大数据的分类、预判,与人类的思考模式具有异曲同工之妙,但也不可避免地继承了人类的偏见。

数据是算法的基础,如果训练数据隐含偏见,算法输出的结果也有可能出现偏见,即所谓的“偏见进,偏见出”。数据偏见又可以分为“采集阶段的偏见”和“编码阶段的偏见”。在数据采集阶段,获取数据的目的、方式和使用的媒体,都可能成为偏见的来源。以波士顿的StreetBump智能手机应用程序为例,它使用手机的加速计来检测路面的坑洞,而不需要城市工作人员在街上巡逻。当波士顿市民下载该应用程序并开车行驶时,其手机会自动告知市政部门有哪些需要修复的路面。这是一个富有创意的应用,但也是带有偏见的应用。这种数据收集方式决定了其更适用于富裕的地区,因为那里有更多的人拥有智能手机。数据的编码技术也与偏见有着极大关系。编码是指用人工方式对数据进行标注,标注过的数据集对其法的发展至关重要。现代AI技术的一个重要分支就建立在对标注过的数据的学习之上,亦即所谓的“监督式学习”。然而,这些标注极有可能带有数据标注者的主观判断和个人烙印。

即使训练数据集不具备偏见,算法也有可能通过自我学习制造偏见。算法系统就像是个“黑箱”,机器的学习和训练是不为外人所熟知的。机器学习离不开环境,它在与环境信息交互的过程中学习和复制种种带有偏见的行为。2016年,一款由微软公司专门为年轻人推出的智能聊天机器人Tay,在经过不到24小时与年轻人的聊天学习后,变得脏话连篇,言论带有种族歧视,被迫下架。算法不能决定用户输入数据的性质或特点,只能被动对输入的各类数据进行学习,换句话说,若输入数据的互动者向算法输入了具有偏见的新数据,那学习之后的算法就是一个偏见算法。

算法的设计目的、数据运用、结果表征等都是开发者、设计者的主观价值与偏好选择。算法设计者可能会为了某些利益而设计歧视性的算法。2020年12月,斯坦福大学医学中心的数十名住院医师和其他医务人员向院方提出了抗议,他们作为一线员工,却在筛选过程中遭到淘汰,无缘第一批新冠肺炎疫苗的接种。医院的管理者把责任推到了医院开发的算法上,认为正是这些算法决定了员工的接种顺序。然而专家对该算法进行详细分析后却发现,真正的错误源自设计算法的人,他们并没有根据员工在病毒环境中的暴露程度来决定接种顺序,而是简单地按照年龄排序。该案例表明,算法决策的结果并非总是公平公正。一旦出现差错,算法很容易成为决策者的“替罪羊”。

美国社会心理学家戈登·奥尔波特在《偏见的本质》中指出,偏见不只是个别的、品德有块陷的个体所持有的恶劣信念,而是广泛存在于社会中的普遍现象,它是人类认知结构和社会组织形态的必然产物。如果偏见无法消除,至少应该让受影响的人群拥有知情权。2018年的一份报告《英国的AI:准备、意愿和能力?》特别指出,偏见绝不能在不知情的情况下被纳入自动化系统。在大规模普及之前,还应该请专家进行算法审查,衡量这种算法决策的影响和公平性。如果有人认为自己被不公正对待,应该给予他们质疑和申请复议的权利。AI智能决策系统的引入是为了避免人类决策中的偏见。不过,人类的决策虽然经常有缺陷,却也有一个主要的优点,即人类的决策是可以改善的。相比之下,AI决策系统不会随着时间的推移而改变,除非开发者对系统作出改变。算法只会将过去编入代码,而不会创造未来。创造未来需要想象力,而想象力只有人类才有。

(摘编自汪靖《从人类偏见到算法偏见:偏见是否可以被消除》)

材料二:

当下,在尊重算法运行逻辑的基础上,明确算法设计者和算法使用者的行为有助于避免算法偏见的产生。算法设计者对自己设计的算法负有直接责任,对因算法设计问题所造成的歧视、偏见等有损使用者的结果理应承担一定的责任与义务。算法使用者(尤其是将算法用于商业运行的公司)也同样承担着因算法问题给算法服务对象造成损害的责任。算法的使用需要大体量的数据,而数据采集方式的隐蔽性以及数据挖掘技术的进步,加剧了数据被非法收集和过度分析的风险。因此,不仅在采集、使用、交

文档评论(0)

K12好帮手 + 关注
实名认证
内容提供者

K12好帮手

1亿VIP精品文档

相关文档