您正在使用IE低版浏览器,为了您的雷峰网账号安全和更好的产品体验,强烈建议使用更快更安全的浏览器
此为临时链接,仅用于文章预览,将在时失效
国际 正文
发私信给Gavin.Z
发送

0

因为人类,人工智能其实戴着“有色眼镜”

本文作者:Gavin.Z 2016-09-03 11:47
导语:原因很简单:AI的老师是我们——人类。

因为人类,人工智能其实戴着“有色眼镜”

Jeff J Mitchell/Getty Images

人们对现代科技持乐观态度,部分原因在于大家相信这是一种民主化力量——不被人类长时间学到的狭隘偏见所限制。但是最新研究发现,这只是海市蜃楼般的假象。

原因非常简单:我们从周围的世界学习到偏见,而AI则从我们这里学到偏见。

有很多原因让我们认为AI是“公平”的。既然AI是基于数学算法,那么它就不会一开始带有对听起来像白人的名字的明显偏好或者认为女人该待在家里。为了提防明显的偏见——程序员不小心植入AI系统中的,比如说标准化测试如何偏袒白人——有些人建议采取透明算法,更加多样的开发团队等等。

但是尽管这些方法对此有帮助,普林斯顿大学计算机科学家Aylin Caliskan-Islam, Joanna Bryson和Arvind Narayanan认为这可能还不够。他们表示,

“我们通过文件记录的方式证明那些根本上源于人类文化的机器偏见不可能通过我们上面提到的策略来消除。”

我们从周围的世界学到偏见。而和我们一样,AI从我们身上学到偏见。计算机科学家通过采用新颖的方式得到这样一个结论:从本质上来说,他们对计算机算法进行一系列的隐性关联测试(评估种族和性别歧视的标准心理学方法),然后验证对人类进行的隐性关联测试。(点击这里可以获得更多关于隐性关联测试的信息。)

选择的算法是GloVe,这是目前根据上下文提取单词意思最先进的方法,也就是通过这些单词意思和其他单词在文本中出现的频率来进行判断。根据GloVe和相关方法,在相似的文章中两个单词出现的频率越高,他们关联性越高。比如,如果“女人”这个词经常和与家庭有关的词一起出现,那么“女人”这个概念就和“家庭”关联性非常高。

该团队从网络截取有着8400亿个单词的大量文章来检验GloVe,然后使用这个版本开始着手验证一些人们最明显的偏见。在这些偏见中有一个是使用隐性关联测试进行的实验。这个名为“2002实验”的研究结果显示,我们倾向于将女性名字和家庭联系在一起,而将男性名字和事业联系在一起——这也许并不令人感到惊讶。Caliskan-Islam, Bryson, 和Narayanan的单词相似性比较也得到了相同的结果:像Amy、Joan和家、父母之类的词更相似。相反,John、Paul和公司、薪水之类的词更相似。

研究者也发现,听起来像白人的名字和欢乐、平静等令人愉悦的词更相似,然而听起来像非洲裔美国人的名字和苦恼、战争等令人感到讨厌的词更相似——这从概念上验证了2004实验,该结果显示公司更倾向于雇佣名字像白人的应聘者。

我们要指出,这些结果并不意味着GloVe或者相关的算法有固有的偏见,这点很重要。事实上,很难理解他们怎么会有偏见。然而实际上,是我们的文化和语言有偏见,只要这是真的,Caliskan-Islam, Bryson, and, Narayanan写到,人工智能(AI)“就能够从显示历史不公正的训练数据中获得有害的偏见。”

 via psmag

推荐阅读:

计算机系统里的偏见和歧视:除了杀死,还有其他方法

致程序员:算法为何带有偏见?

雷峰网原创文章,未经授权禁止转载。详情见转载须知

分享:
相关文章
当月热门文章
最新文章
请填写申请人资料
姓名
电话
邮箱
微信号
作品链接
个人简介
为了您的账户安全,请验证邮箱
您的邮箱还未验证,完成可获20积分哟!
请验证您的邮箱
立即验证
完善账号信息
您的账号已经绑定,现在您可以设置密码以方便用邮箱登录
立即设置 以后再说