您正在使用IE低版浏览器,为了您的雷峰网账号安全和更好的产品体验,强烈建议使用更快更安全的浏览器
此为临时链接,仅用于文章预览,将在时失效
业界 正文
发私信给伍文靓
发送

0

高管被挖,AI伦理委员会解散,谷歌到底“闹哪样”?

本文作者:伍文靓 2019-04-06 13:19
导语:对谷歌这样的公司来说,伦理和治理不能成为次要内容,这些公司将受到严格的审查,因为它们要应对自己所引发的诸多挑战。

高管被挖,AI伦理委员会解散,谷歌到底“闹哪样”?

雷锋网注:【 图片来源:vox  所有者:Carsten Koall/Getty Images 】

本周,Vox和其他媒体报道称,因几名委员会成员产生争议,谷歌新成立的AI伦理委员会已经分崩离析。它只存活了一个多星期。

谷歌AI伦理委员会成立于2019年,旨在指导谷歌的AI发展。委员会一共有8名成员,他们在过去的几个月里四度碰面,讨论谷歌的AI项目可能引发的问题。他们关注的问题包括AI如何在权威领域应用、AI算法怎样产生不同的结果、是否要在军事领域开展AI项目等等。但是出师不利,这一切从一开始就遇到了问题。

Kay Coles James是Heritage Foundation的主席,也是委员会的成员之一。然而,数千名谷歌员工签署了一份请愿书,要求将她从委员会中除名。原因是她关于跨性别人士的不当言论,以及Heritage Foundation对气候变化持怀疑态度。与此同时,无人机公司首席执行官Dyan Gibbens加入后,重组了自己公司的旧部门,试图将AI用于军事领域。 

委员会成员Alessandro Acquisti辞职。另一名成员Joanna Bryson为自己不辞职的决定进行了辩护,她声称:"相信我,没有人比我更清楚目前的形势不容乐观。”其他委员会成员也被要求给出留在委员会的正当理由。

周四下午,谷歌发言人告诉Vox,该公司已经决定解散这个全名为先进技术外部咨询委员会(ATEAC)的小组。以下是该公司的声明:

很明显,在目前的环境下,ATEAC不能像我们所期望的那样运转。所以我们要解散委员会,重新开始。我们将继续对与AI有关的重要问题负责,并将寻找不同的方法,获得外界对这些问题的意见。

该小组本应为谷歌工程师正在进行的AI伦理工作增加外部视角,不过,即便委员会解散,这些工作也将继续下去。希望委员会的解散并不代表着谷歌AI伦理工作的倒退,而是提供了一个机会,让谷歌考虑如何让吸引外部利益相关者变得更具建设性。

早在Alessandro Acquisti在Twitter上宣布辞职的时候,该委员会的名誉就受到了重创。他说道:“我致力于研究和解决主要伦理问题,包括AI的公平性以及AI的正确使用,但我并不认为这个委员会是我从事这项工作的好去处。”

与此同时,要求撤换Kay Coles James的请愿书已吸引了逾2300名谷歌员工签名,而且没有显示出任何疲软的迹象。

随着人们对委员会的愤怒加剧,委员会成员卷入了有关他们为何进入委员会的道德论战,而这不可能是谷歌所希望的。在Facebook上,牛津大学伦理学家、委员会成员Luciano Floridi沉思道:

谷歌让Kay Coles James加入委员会,试图寻求她的建议,这是一个非常严重的错误,因为这一举动标志着整个ATEAC项目的性质和目标出现了错误。从伦理的角度来看,谷歌错误地判断了,在更广泛的背景下具有代表性的观点意味着什么。如果Coles James不像我所希望的那样辞职,如果谷歌不像我个人所建议的那样将她赶下台,那么问题就变成:面对这个严重的错误,我们到底采取什么样的道德立场才算正确?

Luciano Floridi最终决定继续留在这个小组,但这并不是谷歌希望引发的那种伦理辩论,而且很难想象Luciano Floridi和Kay Coles James还能一起共事。

这并不是唯一的问题。撇开人们对某些成员的愤怒不谈,委员会并没有为项目的成功做好充分准备。在硅谷很流行像谷歌成立的这种AI伦理委员会,然而,从很大的程度上来说,这些AI伦理委员会根本没有能力解决AI伦理难题,甚至很难在这些问题上取得进展。

谷歌的AI委员会是一个没有薪酬、没有实权的组织,仅通过过去的四次会议,委员会不可能对谷歌所做的每件事都有清晰的了解,更不用说提供细致入微的指导了。谷歌正在进行的AI工作存在紧迫的伦理问题,而委员会没有令人满意的途径来解决这些问题。

从一开始,这个委员会的设定就很糟糕。现在它被取消了,但谷歌仍需要解决AI伦理的难题,只是不该使用这种方式。

谷歌的许多AI研究人员都积极致力于使AI更加公平和透明,而管理层的失误让情况不会有所改观。谷歌发言人指出,几份文件反映了谷歌对AI伦理的态度。今年年初,一份详尽的任务声明概述了他们不会从事的AI项目,回顾了他们迄今为止的AI工作是否产生了社会效益,也回顾了AI治理的详细情况。

理想情况下,一个外部小组将辅助这项工作,增加问责制,并帮助确保每个谷歌AI项目都受到适当的审查。

谷歌下一次尝试外部问责制需要解决这些问题。一个更好的委员会应该更频繁地开会,让更多的利益相关者参与进来,它还应该公开透明地提出具体建议。谷歌也会告诉我们,公司是否遵循了这些建议,以及这么做的理由。

对于谷歌来说,这一点极其重要。AI正在不断进步,这让大多数美国人对自动化、对数据隐私、对先进AI系统引发的灾难性事故等方方面面都感到紧张。对谷歌这样的公司来说,伦理和治理不能成为次要内容,这些公司将受到严格的审查,因为它们要应对自己所引发的诸多挑战。

雷锋网注:本文编译自VOX

雷锋网注:【封面图片来源:网站名vox,所有者:Carsten Koall/Getty Images】

雷峰网版权文章,未经授权禁止转载。详情见转载须知

分享:

主编

WeChat ID:JANE_WW5 | 关注智能汽车以及自动驾驶
当月热门文章
最新文章
请填写申请人资料
姓名
电话
邮箱
微信号
作品链接
个人简介
为了您的账户安全,请验证邮箱
您的邮箱还未验证,完成可获20积分哟!
请验证您的邮箱
立即验证
完善账号信息
您的账号已经绑定,现在您可以设置密码以方便用邮箱登录
立即设置 以后再说