2024—2025学年浙江省台金七校联盟高二上学期11月期中联考语文试卷.docVIP

2024—2025学年浙江省台金七校联盟高二上学期11月期中联考语文试卷.doc

  1. 1、本文档共11页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

2024—2025学年浙江省台金七校联盟高二上学期11月期中联考语文试卷

一、现代文阅读

(★★★★)

阅读下面的文字,完成下面小题。

材料一:

人工智能是近年来引起人们很大兴趣的一个领域,经常被简写成“AI”。AI的目标是用机器尽可能地模仿人的精神活动,或许还能在这些方面最终改善并超出人的能力。迄今为止,AI已经进展到何种程度呢?可以公正地说,AI的确做了许多聪明的事,但其对人类智慧的任何模拟都还远未成为事实。

柯尔贝在20世纪60年代中期发展的电脑程序与图灵测试相连贯,它成功地模拟出一位精神疗法专家,以至于某些病人发现自己对电脑比对人类更愿意袒露自己的内心。虽然这会给人一种电脑具有某种理解力的可怕印象,然而在事实上它一点儿也没有,它只不过是遵循着某种相当简单的既定规则或算法而已。

计算机下棋也许是机器被认为能够“智慧作为”的最好例子,因为一些机器在与人对弈时实际已达到极受尊敬的“国际大师”的水准。其实,下棋机除了精确的计算能力外,还大大地依赖于博学多闻。如果落子动作要求非常快,下棋机总的来说比相当多的弈手都要高明一些;如果每一着允许的时间更长,则弈手的表现相对地要比机器好。人们可以依照如下事实来理解这一切:电脑是基于准确和快速的计算来决策,而弈手则依赖于利用相对缓慢的意识作出“判断”;当有时间时,弈手可以得到比不用这类判断而只用简单计算和直接排除可能性的机器更深刻的分析。

一些人宣称人工智能已经为理解精神品质——譬如快乐、痛苦、饥渴等提供了途径,他们以格雷·瓦尔特的乌龟为例。乌龟的行为模式在电池快用完时就要改变,然后它以被设计好的行为方式补充自己的能量存储,这和人类或任何动物感到饥渴时的行为非常相似。当瓦尔特乌龟以这种方式行动时,我们说它饥饿了,并非错误的语言表达。瓦尔特乌龟设计中的某些机制对其电池的状态很敏感,低到一定点时就会让乌龟转换到不同的行为模式。但是人类的行为模式的改变会更加复杂,更加微妙。人类不是简单地从一种行为模式改变到另一种行为模式,而是存在一种以确定方式行动之下的倾向性变化,当补充能量供应的需求增加时,这些变化就会变得更加强烈。

正如我们都知道的,人类的事情实际上并不像人工智能这么简单:我们有时似乎特地去招惹痛苦,或者故意回避某种快乐——很清楚的一点是,人类的实际行为实在是由比这些复杂得多的判断依据所导引的。这可由一个人触摸热火炉的经验得到旁证:一个人在甚至还未感到痛楚之时就采取了抽手回来的动作,这种不情愿的动作比痛苦或快乐的实际效应更接近于仪器设备对自己苦乐度的反应。尽管如此,我仍然相信AI实现了一种值得尊敬的创造。

(摘编自罗杰·彭罗斯的《皇帝新脑》)

材料二:

和人类智能相近的AI系统会给社会和人类带来极大风险,广泛的研究已经证明了这一点,顶尖的AI实验室也已经承认。正如AsiLomarAI研究所指出的那样,“高级AI可能意味着地球生命史上的深刻变革,我们应当关注,并对资源进行规划和管理”。不幸的是,这种规划和管理没人去做。而最近几个月,AI实验室正在开发越来越强大的数字思维,竞争逐渐失控,包括它们的创造者在内,没有人能理解、预测或可靠地控制它们。

如今,AI系统在一般任务上已经具备了与人类竞争的能力,我们必须自问:是否该让信息渠道充斥着机器写就的宣传和谎言?是否应该把所有工作都自动化,包括那些有成就感的工作?是否该开发机器大脑,让它们在数量上发展得比人脑还多,在思维上表现得比人脑还聪明,最终淘汰我们取代我们?是否应该冒文明失控的风险?这样的决定绝不能委托给未经选举的技术领袖来做。只有当我们确信强大的AI系统是积极的、风险是可控的,才应该继续这种开发。而且AI的潜在影响越大,我们就越需要充分的理由来证明其可靠性。OpenAl最近关于人工通用智能的声明指出,“到了某个时间节点,在开始训练新系统之前可能需要进行独立审查,而用于新模型的计算的增长速度也应加以限制”。我们深深认同这份声明,而那个时间点就是现在。

因此,我们呼吁所有正在训练比GPT-4更强大的AI系统的实验室立即暂停训练,至少暂停6个月。实验暂停应该对外公开;如果不能迅速实施,政府应该介入并发布禁止令。在暂停期间,AI实验室和独立学者应针对高级AI的设计和开发共同制定和实施一套共享安全协议。这份协议的审计和监督应由独立的外部专家严格执行,确保AI的安全性不超过合理的怀疑范围。这并不意味着我们要暂停人工智能的总体发展,而只是从目前这种会不断涌现出具有新能力的、不可预测的黑匣子模型的危险竞赛中退后一步。

人工智能的

文档评论(0)

像个〜孩子 + 关注
实名认证
文档贡献者

没有找到的资料可以私信,这边帮忙下载一天一篇不收费,多出的看心情收费,欢迎留言,回复可能不及时请谅解。

1亿VIP精品文档

相关文档