【推荐下载】斯蒂芬·霍金:人工智能也许会成为一个真正的危险.doc

【推荐下载】斯蒂芬·霍金:人工智能也许会成为一个真正的危险.doc

  1. 1、本文档共2页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多

张小只智能机械工业网

张小只机械知识库

斯蒂芬·霍金:人工智能也许会成为一个真正的危险

著名物理学家斯蒂芬-霍金(StephenHawking)17日出席美国HBO频道的LastWeekTonight节目时表示,机器人未来绝对有可能比我们聪明。他肯定地说:人工智能在并不遥远的未来也许会成为一个真正的危险。

宇宙之王的预言让我们再次想起科幻电影里机器人统治世界的情节。我们一边发展着人工智能,一边担心着它有一天真的会超越人类成为世界的主宰。而谁也不知道那些现在看来机器人还无法超越人类的地方,会不会成为压垮骆驼的最后一根稻草。

目前还无法让它拥有灵机一动的智慧

在互联网的世界里,你不知道自己面对的是一个人还是一只狗;而在人工智能飞速发展的今天,你也猜不透在图灵测试的另一端,那个通过测试的是人还是机器人。

几天前,一款名为尤金-古兹曼的计算机软件在参加一场图灵测试中,让33%的裁判相信它是一个13岁的男孩。我国科学院深圳先进技术研究院集成所副所长吴新宇告诉记者,这是人工智能有史以来首次通过图灵测试。

尽管人工智能不断带给我们新的突破和惊喜,但吴新宇认为,人工智能想要超越人类的智慧还尚需时日,他并不认同霍金的观点,至少短期内还无法实现。

尽管计算机的运行速度远远大于人脑,无论是计算从1加到10000的结果还是学习一门外语,它都可以轻轻松松搞定,但是人类所拥有的创造力和想象力却是机器人望尘莫及的。吴新宇说,我们为机器人设定一些程序,让它在各种假设下做出判断和行为,尽管这样的假设可以在一定范围内被复制,但我们还无法让它们像人类一样有着灵机一动的智慧。

归根结底,这与人类对脑科学自身的研究与认识的局限是分不开的,如果我们还无法完全了解人类自己的创造力和想象力如何产生,我们又如何让我们亲手创造的机器人像人类一样思考呢?吴新宇说。

对人类情感的读取并不意味着它有了喜怒哀乐

我们总觉得机器人比起人类,显得更加冷冰冰一些,但是有了情感也不见得都是好事,比如工业机器人需要从事一些高精度或者大量重复性的工作,这时我们就需要它绝对的理性。吴新宇说,不过机器人当然也可以拥有情感,比如一些服务型的机器人,它的任务是为人类服务,甚至包括一些陪伴、照顾的任务,这个时候如果有一些适当的、可控的情感,当然是一件好事。

据他介绍,在很多人看来,人和机器最大的区别恐怕在于感性和理性的判断。机器人怎么会有情感,这在从前来看简直是天方夜谭,而就在本月6日,一款名为Pepper的新型机器人在东京首次亮相,这款机器人仿佛是被装入了一颗跳动的心脏,可以简单读取人类感情,被誉为世界第一个具有情感的机器人。

tips:感谢大家的阅读,本文由我司收集整编。仅供参阅!

文档评论(0)

133****5313 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档