您正在使用IE低版浏览器,为了您的雷峰网账号安全和更好的产品体验,强烈建议使用更快更安全的浏览器
此为临时链接,仅用于文章预览,将在时失效
脑洞 正文
发私信给大壮旅
发送

6

机器人想对人类说“No”,可能吗?

本文作者:大壮旅 2015-11-30 14:34
导语:想让机器人无条件遵守人类的规则是不现实的。

机器人想对人类说“No”,可能吗?

"永远不要相信人类!"

在1950年末出版的科幻作品《我,机器人》里,作者阿西莫夫在第一页就引用了《机器人学指南》第56版(2058年)的“机器人学三定律”:

  • 机器人不得伤害人类,或坐视人类受到伤害;

  • 除非违背第一法则,机器人必须服从人类的命令;

  • 在不违背第一及第二法则下,机器人必须保护自己。

这三定律看起来非常简单易懂,right? 而且令人欣慰的是,服从人类的法则排在第二位。因为有些人经常做傻事,如果机器人总是对人类言听计从,恐怕会惹出不少乱子。所以来自塔夫斯大学人机交互实验室的Gordon Briggs和Matthias Scheutz正着手制定一种全新的机制,让机器人学会在必要时刻拒绝人类发出的命令。

从语言学理论上来看,如果某人要你做一件事,你理解它的意思靠的更多的是语境而不是词汇本身,这就是我们说的“合适条件”。在合适条件下,你会将语义和自身能力统一起来进行权衡,而不是只去理解别人的命令。对机器人来说,合适条件同样重要,尤其是在如下的场景中:

  1. 认知:我知道怎么做这件事吗?

  2. 能力:这件事真的是我力所能及范围之内的吗?

  3. 目标优先级和时间:我现在就能去做这件事吗?

  4. 社会角色和义务:基于我所扮演的社会角色,我有责任做这件事吗?

  5. 规范允许:做这件事会违反一些规则吗?

前三种合适条件很容易理解,不过对于第四和第五条,我们可以讨论一下。“社会角色和义务”是指机器人是否相信人类有权命令自己做事。而“规范允许”语义则更为复杂,它表示机器人不该去做那些明知很危险的事情,或者更准确地说,如果机器人不了解事情的危险性,它就会按照命令去执行。

机器人想对人类说“No”,可能吗?

现在我们来研究一下,这些条款在人类与机器人的交流中到底是如何工作的。研究人员做这件事不仅是为了让机器人分清何时该听从命令,他们还想提供一个全新的框架,让机器人能表达出自己拒绝接受命令的原因。这一点很重要,因为如此一来人类就不会胡乱下命令了,他们在做决定前会充分考虑到一系列的合适条件。

举例来说,如果你的命令违反了某些规则,即使是只是“前进”——一个极其简单的命令,机器人也会拒绝执行(因为机器人知道如果“前进”就会摔下桌子)。如果机器人可以解释原因,人类就可以及时修改命令,这样一来就可以提高机器人的效率。

我希望研究者能给机器人添加一个“狼来了”模式,如果有人故意下达恶意命令,今后就再也得不到机器人的信任了。

我们再举一个例子,如果人类事先知道一个屋子是危房还硬要让机器人进入呢?这种行为依然会置机器人于危险境地,所以如果机器人和命令人之间没有特定的社会关系,它可以选择拒绝执行命令。

如果全面推行该机制,原本的机器人第二和第三定律就不再起作用了,因为在危险情况下机器人可以选择拒绝执行命令。

这样的机制会不会造成机器人反噬人类呢?也许会吧。不过恐怕想让机器人无条件遵守人类的规则也是不现实的。如果你试着让电脑和软件完全遵守人类制定的规则,等待你的结果必然是一团糟,机器人也与该情况类似,毕竟强扭的瓜不甜。

也许未来的某天,机器人也会懂得拒绝的。

 via ieee

2015-2016赛季全球创客马拉松深圳大学站已经开始接受报名啦!关注“硬创邦”(微信号:leiphone_bang),回复“深大”即可参与报名!而且,雷锋网在未来三个月内选一个合适的时间,在北上深选择一个地点,举办创马“火星救援”专场!详情可点此处了解。

此外还可加入全球创客马拉松主群(群号:259592983),参与我们的互动讨论~

机器人想对人类说“No”,可能吗?

雷峰网原创文章,未经授权禁止转载。详情见转载须知

分享:
相关文章
当月热门文章
最新文章
请填写申请人资料
姓名
电话
邮箱
微信号
作品链接
个人简介
为了您的账户安全,请验证邮箱
您的邮箱还未验证,完成可获20积分哟!
请验证您的邮箱
立即验证
完善账号信息
您的账号已经绑定,现在您可以设置密码以方便用邮箱登录
立即设置 以后再说