【猎云网(微信:ilieyun)】7月8日报道(编译:福尔摩望)
编者注:本文总结自前段时间在瑞士日内瓦举行的人工智峰会的主要内容。其中,文中多次提到的大赦国际(Amnesty International)为一个国际自由联盟,主要关注时下的热点趋势,以“造福人类”为目的并为之做出相关决策。
当我们在网络上搜索人工智能时,会发现充斥着大量相关的媒体报道,有些涉及人工智能的研究、公司和投资,有些则在普及人工智能系统将会如何彻底改变我们的工作和生活方式。
其实人工智能在最初提出时就已经受到部分关注,随着计算机性能的提高、大数据的兴起以及对人工智能研究和开发的财政投入,让该领域在过去的十年内取得了惊人的进展。
人工智能系统的发展速度之快,超过了许多人的预期,其中最显著的例子就是AlphaGo。这款由谷歌子公司DeepMind开发的程序,依靠其出色的预测和适应能力,先后打败了韩国围棋高手李世石和中国围棋天才柯洁。当然,这个胜利并非偶然,要知道在两次对战相隔的一年时间内,AlphaGo的进步是惊人的。
但是猎云君今天要探讨的并不是人工智能本身,而是其对人权影响。
如果人工智能的开发和使用按照预期的速度发展,我们所生活的世界在不久的将来会天翻地覆。事实上,它会对我们的权利产生巨大的影响。仔细审视一下,你就会发现在我们的日常生活中,AI增强软件已经开始帮助我们做出关键决定。
在瑞士日内瓦举行的联合国“AI for Good Summit”(人工智能造福人类峰会)上,大赦国际(亦称国际特赦组织)呼吁国际社会认真对待AI的社会影响,如何化解潜在的风险,如何让AI为我们的权利所服务,让AI发挥其有益的一面。从工业革命开始,随着技术的进步,我们的权利是经过不断的挫折、不断的抗争争取来的。AI时代也同样如此,只不过对象变成了AI研究员、科技公司、外交官、企业家和权利组织。
Salil Shetty在峰会上表示:“AI是由人类所创造的,被赋予了人类的价值观。如果我们建造的AI系统是现今社会的镜像,那么它们也必将充斥着历史偏见和社会的不平等。”
大赦国际正在调查AI的风险和利益,了解AI系统的使用情况,并致力于推动开发人员将人权思想作为AI系统设计的核心。
自动化决策是好是坏?
当我们在谈论AI时,我们究竟指的是什么?
有些人的脑海中或许会浮现出终结者的画面,但是这种达到人类水平的人工智能仍然只存在于科幻小说中。
我们现在所说的是狭义上的AI系统,它主要通过监督学习或者更新的深层学习方式来执行特定的任务、处理特定的过程。也就是说,人工智能通常只是人们给这些计算机程序所赋予的名称。
但是,就是这些依靠自我学习的计算机程序却推动我们在生活中做出更多的决定,比如你在微博、优酷上看到的内容。
需要注意的一点是,这些会自我学习的机器仍然是由人类所构建和引导的:程序设置算法参数和训练数据,并把控系统的学习过程。但是程序员无法掌控系统的输出,如果系统是不透明的,那就会出现问题。目前,所有的深度学习算法都是不透明的,即使是建造深度学习系统的开发人员也无法解释某一决定是如何或者为什么达成的。这一情况通常被称为“黑盒现象”,输入输出是可见的,但是从输入到输出的过程却不是。
越来越多的服务采取了AI增强技术实现了自动化,也意味着这类软件在社会中的影响变得越来越大。其实很长时间以来,我们一直将很多任务外包给机器完成,比如电话交换机、计算机或者自动化生产,但现在却是把决策权外包给了软件。
举个例子,美国法院使用的自动假释宣判和重新犯罪风险评估系统就将法官对一个人的决策权交给了软件来完成,但是法官并不清楚软件的决策过程。
Luka Omladič在峰会上表示:“现在我们将决策权委托给机器来完成,但是这也给我们带来了一个最大的道德问题:是否有一条界线,某些类型的决策是不应该交给机器的?”
AI驱动决策的人力成本
正当我们越来越依赖于自动化决策时,那些已经存在于社会中的问题也被放大了,甚至在某些情况下,AI技术巩固和延续了歧视和不平等现象。
以刑事司法为例,2016年ProPublica调查发现,在美国佛罗里达州的假释宣判中,黑人囚犯往往会比犯下更重罪行的白人囚犯被判下更长的假释期限,而这仅仅是根据具有历史偏差的数据所形成的算法。
另一个例子是医疗保健。美国公民自由联盟ACLU的数据科学家发现,医保软件根据有缺陷的数据毫无理由的削减了4000名发育和智力残疾者的医疗补助。
这类决策软件引起了很多人的疑问。如果无法解释决策过程,无法保证决策的公平性和透明性,那么真的应该让这些系统来做出如此重要的决策吗?谁对这项技术所产生的决策后果进行负责?
Frank La Rue在峰会上表示:“我们常说,互联网推动了言论自由的发展,但是与此同时,互联网也带了两极分化。我们以为互联网会带来性别平等,结果却发现网络上的性别歧视越来越严重。”
设计支持平权的AI系统
作为人工智能学者,Yoshua Bengio在峰会上指出,开发人员和研究人员往往专注于编写代码,不考虑实际中的问题。
面部识别软件可以帮助我们给社交网站照片上的朋友贴上标签,但是当这一技术被用于警察行动或者政府大规模的监视计划时,却极具杀伤力。
我们需要人们创造新技术的时候要真正考虑潜在的用途,不要开发或部署对我们的权利构成巨大威胁的系统。
我们需要解决历史数据中的偏见问题,处理掉那些增强现有偏见的软件。
完全透明化。如果深层学习系统无法做到透明化,那么它们就不应该被赋予关键性的决策权。当决策是完全或者部分自动化时,需要通知用户。
支持问责。如果AI系统将成为社会的关键决策者,我们应该建立相应的监督和问责,明确责任对象。
支持平等。数据造成的歧视会加深现存的不平等,那些设计或拥有社会系统技术的人会比他人拥有更多的权力。我们需要在AI发展的同时,适当的处理性别、种族和地域问题。
人权第一。AI系统正在给权利带来巨大的影响,我们需要科技公司提前了解他们正在开发的技术潜在的人力成本和风险。我们需要确保AI是为了所有人的利益,而不是少数人的利益。