第5章 人工智能的法律伦理(修改后讲稿).pptxVIP

第5章 人工智能的法律伦理(修改后讲稿).pptx

此“司法”领域文档为创作者个人分享资料,不作为权威性指导和指引,仅供参考
  1. 1、本文档共25页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

;第五章人工智能的法律伦理;人工智能伦理

上位概念——科技伦理

科技伦理是对于科技活动的道德引导,是调节科技工作者相互之间、科技共同体与社会之间诸种关系的道德原则、道德规范等的总和。;人工智能伦理:代表性观点

学者1:指人工智能开发、应用等方面所应遵循的道理及准则,其聚焦人工智能的道德发展和部署。

学者2:指一定社会历史条件下,为解决人、社会、自然与智能机器的和谐共处问题,制定相关原则、标准和制度,促进人、社会、自然和智能机器人和谐共处,涉及道德、社会制度、法律等领域。;第二节人工智能的伦理问题;(一)人工智能技术的独特性

一方面,人工智能高度依赖内部的算法设计,而算法本质上是一系列指令,其难以转换为通俗易懂的语言,这也导致人工智能技术背后的决策逻辑难以被理解、预测和评估,尤其是在其与大数据、脑神经、生物学等结合之后,该技术应用下潜在的伦理风险是不可预测的。;另一方面,人工智能应用是通过代码和算法植入实现的,程序员都是构建主义者,他们建立、测试和改进模型。大多数的智能系统是不透明的,其中的规则用户是无法认清的,也不能参与决策,只能被动接受其运行的结果。一旦算法设计者把过度逐利的追求、不平等的价值偏好装入“黑箱”,那么将会对道德伦理秩序产生巨大的冲击。;(二)人工智能伦理制度的不完善

针对人工智能伦理的制度,存在两方面问题:

一方面,政策制定者仅着眼于眼前的经济利益,没有理性地制定长期的发展政策;

另一方面,人工智能技术发展仅仅历经60年,技术诞生时间较短,可能产生诸多超出现有政策规范的伦理风险。;二、人工智能存在的伦理问题

;(一)隐私问题

人工智能技术与智能家居、智能医疗设备结合后,这些设备在打开开关的一刻便全面侵入人们的生活:通过外围的红外线传感器、摄像头等装置将采集到一定范围的个人隐私数据,该数据一旦外泄、滥用都将对公民隐私安全造成威胁。

;(二)道德认定困境

现有研究将人工智能的道德问题区分为以下两个问题:

一是人工??能本身的道德评价问题;

二是人工智能研发与应用后果的善恶评价问题。;;三种观点都呈现出人工智能技术的发展会带来道德认定和评价的困境,只是规制的对象是人工智能体,还是背后设计的人存在争议。;(三)偏见问题

;第三节人工智能伦理准则;第三节人工智能伦理准则;第三节人工智能伦理准则;第三节人工智能伦理准则;

国外致力于探究人工智能伦理问题治理的国家众多:

1.英国已出版4份战略文件来阐述未来将会如何规范机器人技术与人工智能系统的发展,以及如何应对其发展带来的伦理道德、法律及社会问题

2.美国于2016年连续发布三份报告,为美国的AI战略奠定了基础。2021年9月8日,美国商务部宣布成立一个高级别委员会——国家人工智能咨询委员会

3.德国成立数据伦理委员会。欧盟也开始积极关注人工智能伦理问题。;非国家层面进展:(国际组织、高校和网络公司等)

1.标准制定组织IEEE(美国电气和电子工程师协会)发布《合伦理设计(第二版)》,并首次在报告中考虑人类生存幸福感(Well-being)的问题。

2.UNESCO(联合国教科文组织)和COMEST(世界科学知识与技术伦理委员会)多次联合发布报告,就机器人伦理问题展开讨论。

3.谷歌、因特尔、IBM等大型互联网公司也相继发布了有关的人工智能伦理规范和标准。;人工智能伦理的相关原则,大致有以下几种:问责原则、隐私原则、平等原则、透明原则、不伤害原则、预警原则、稳定原则。;

“问责原则”要求明确责任主体,建立具体的法律规则并明确说明为什么以及采取何种方式让智能系统的设计者和部署者承担应有的义务与责任。

“隐私原则”强调人们应该有权利存取、管理和控制智能机器产生的数据,以确保机器不会向任何未经授权的个人或企业提供用户信息。

“平等原则”要求杜绝算法设计产生的歧视与偏见。;“透明原则”要求人工智能设计需要明确说明其使用的算法、参数以及运作的规则等,并让所有人可以简明的理解。

“不伤害原则”要求人工智能在任何时候不得伤害人类,不能因为技术的适用给人类带来毁灭性的破坏。;“预警原则”强调人类需要开发相应的预警技术对机器的行为进行监督,当机器出现危害人类的行为时,人类应采取行动避免伤害。

“稳定原则”要求算法的运行稳定且安全,不得出现非正常的行为造成不必要的伤害。;谢谢!

文档评论(0)

达芬奇 + 关注
实名认证
文档贡献者

免责声明:本账号发布文档均来源于互联网公开资料,仅用于技术分享交流,不得从事商业活动,相关版权为原作者所有。如果侵犯了您的相关权利,请提出指正,我们将立即删除相关资料。

1亿VIP精品文档

相关文档