人工智能发展中的算法公开能否解决算法歧视?.docx

人工智能发展中的算法公开能否解决算法歧视?.docx

  1. 1、本文档共7页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多

?

?

人工智能发展中的“算法公开”能否解决“算法歧视”?

?

?

王夙

人工智能的研究和产业化进程方兴未艾,算法歧视也被学者和业界广为关注,算法公开则成为呼声较高的解决问题的良方。赛迪智库政策法规研究所认为,算法公开并不能根治算法歧视现象,且有一定的副作用。

算法歧视问题是人工智能产业发展的一个热点问题,算法公开则是学者热议的解决之道。但算法公开是否有效,有哪些缺陷,如何另辟蹊径,这些都是解决算法歧视的关键问题。

算法公开(透明)无法根治算法歧视

针对算法歧视,算法公开呼声颇高

算法是人工智能技术的核心基础,潜在的算法歧视则是公众担忧的焦点。不同领域的专家针对算法歧视提出不同的解决方案,比如美国加州伯克利大学的研究者们就提出“算法的可解释性”,即在设计算法时加入另一个算法对其算法决策的过程进行忠实的记录等。众多方案中,算法公开呼声颇高,理由是算法公开能够曝光歧视性算法的恶意代码,并有效吓阻企图编制歧视性代码的程序员等。例如,谷歌就发布了透明度报告,显示了它删除信息的频率或向政府披露信息,间接显示了些许“公开”的意味。

针对算法歧视,算法公开的有效性存在夸大之嫌,并有一系列副作用

一是算法公开并不必然保证公众知情权。算法通常表现为繁芜的程序、枯燥艰深的代码,体现了极强的专业性和技术性,一般社会公众根本不具备理解和识别算法的能力。因此,对公众而言,公开仅仅是形式而已。二是算法公开有时效方面的局限性。算法公开应当以算法的固定不变为前提,但随着机器学习水平的不断提升,算法程序可能会升级转化,即使是算法的最初设计者也无法完全理解迭代升级后的算法。此时,迭代后的算法早已不是最初公开的算法。三是算法公开不具有解决方案的整体性。算法歧视并不必然由算法程序本身产生,即使是中立性的算法,如果输入有偏见的歧视性数据也会导致算法歧视的发生。算法公开对数据层面的歧视并没有矫正效果,相反,单纯要求算法公开反而会帮助输入歧视数据者摆脱歧视指控。四是算法公开有违现代基本商业准则。算法是人类有意识的创造物,是知识产权的保护对象。同时,算法的具体内容对商业主体能产生直接的经济利益。强制算法公开会构成对知识产权和商业秘密被侵害,也会破坏商业主体研发算法的动力。五是算法公开导致风险可控性减损。算法公开后,不法分子了解了算法程序的内在逻辑,反而更加容易操纵算法程序,客观上破坏算法的“中立性”。

数据比算法本身更容易导致歧视性后果的出现

算法通常不是算法歧视发生的直接原因

包括算法歧视在内的各种不同形式的歧视都根源于現实,是对现实歧视的映射。算法的优化往往有助于减少歧视的发生。现实歧视分为有意识歧视和无意识歧视两种。

一是针对有意识的歧视。在现实中,之所以存在故意歧视现象,很重要的一个原因就是事后没有充分的证据证明歧视行为曾经发生过,因而无法对歧视者施加制裁。但是,算法的编制者(程序员)却很难将脑海中的偏见直接灌输于算法中,这并非技术方面存在难点,而是因为一旦发生歧视性结果导致诉讼,进而引发强制披露,则算法的歧视倾向将被揭露。即使包含歧视倾向的算法没有引起诉讼纠纷,进而幸运地躲避了强制披露,但也不代表歧视性算法没有曝光几率。因为算法的编制通常并非一人之力能够完成,而是涉及到共享程序代码的团队,事后还面临不同人的审阅和调试,要保证算法的歧视性不被识别,有很大困难。而一旦算法被强制披露或被其他人识别,则明确的、法被强制披露或被其他人识别,则明确的、有记载的代码恰恰成为了证明歧视存在的证据。这在欧美等国家和地区严厉惩治歧视行为的社会生态下,要背负沉重的法律代价。

二是针对无意识的歧视。在现实生活中,每个人基于不同的生活经历、认知水平和文化背景,会对同一事物形成差异化的前见。这些前见通常是无意识的产物,与歧视在表现形式上很难截然分开。因此,现实中无意识的歧视行为可能暗藏于任何人的任何行为中,且难以防止和复查。但算法的最终生成是由编制者(程序员)一个代码一个代码地书写而成,它是程序员意识控制行为的后果,程序员对算法所追求的效果有清晰的预期。同时,现代编程实践也要求程序员记录(注释)程序正在做什么。正是得益于这种复杂繁琐的算法编制过程和明确的记录要求,大多数无意识的歧视会被剔除。

数据是更容易导致算法歧视出现的变量

鉴于数据具备导致歧视性后果出现的“天性”,输入具体算法的数据往往预先带有歧视性。

一是数据采集的片面性。数据是对各种信息数字化处理后的具体表现形式,是统计学意义上的样本。样本采集面愈广、多样性愈足,分析处理过程中的误差愈小,结论的客观正确性愈高。在现实生活中,采集所有人、所有区域、所有时间段的数据并不具备可操作性,数据的采集依然离不开样本的操作思维。这就意味着输入算法的数据永远是片面的,区别只在于片面的程度不一。另外,算法之间亦有复杂和相对简单之分。越是复杂繁

您可能关注的文档

文档评论(0)

151****1898 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档