您正在使用IE低版浏览器,为了您的雷峰网账号安全和更好的产品体验,强烈建议使用更快更安全的浏览器
此为临时链接,仅用于文章预览,将在时失效
机器人 正文
发私信给赵青晖
发送

1

能跟人类对话还不够,机器人还得会用表情、手势表达情绪|SIGGRAPH ASIA 2016

本文作者:赵青晖 2016-12-05 22:27
导语:目前对于社交机器人来说,更多的研究都集中在“让机器人如何理解人类的语言”方面,而动作理解却一直没被重视。

能跟人类对话还不够,机器人还得会用表情、手势表达情绪|SIGGRAPH ASIA 2016

机器会思考吗?如果可以,机器能思考之后会跟人类的交互真的会更加顺畅吗?除了思想和语言能力之外,机器还需要达到什么样的能力才能与人交互更加自然有序?

从上个世纪中叶“让机器去思考”这个概念被提出之后,研究者们都一齐向这个方向努力着,从最初的个人电脑到如今的AI热,让机器理解人类并与人类交互的研究热度在当下的研究环境中已经达到了空前的巅峰,多数研究者不顾“机器人威胁论”也要研究如何让机器人能够更好的理解人类的行为,因为这种研究带来的除了“威胁”之外还有更多的益处。

今日,Siggraph Asia 2016亚洲电脑图像和互动技术展览及会议在澳门举行,南洋理工大学电脑工程和设计学院的教授Nadia Thalmann在会议上为大家做了一次“社交机器人及虚拟人类的行为建模”为主题的演讲,在演讲中她提到了社交机器人及虚拟人物在社会环境中与人互动所需要的挑战,以及能给人类带来什么等等问题。

能跟人类对话还不够,机器人还得会用表情、手势表达情绪|SIGGRAPH ASIA 2016

说起Nadia Thalmann教授很多雷锋网关注机器人的老读者应该都不陌生,今年年初的时候,她照着自己的样子研发了一款仿真机器人,并因此而闻名。这个类人机器人名叫Nadine,在当时,Nadia表示这款机器人主要用于社交用途,是为了陪伴老人和儿童而生,未来也许可以解决由人口老龄化引起的劳动人口紧缩的问题。在这次的Siggraph Asia 2016上,Nadia Thalmann仍然大量的使用了Nadine作为演讲实例。

目前对于社交机器人来说,更多的研究都集中在“让机器人如何理解人类的语言”方面,这也是Nadine与这些机器人不同的地方,Nadine的研究方向是,除了能让她理解人类的语言并和人类交流之外,还会有自己的表情和动作,并且这些表情和动作能够表达她的情绪,同时,她也能够通过识别人类的表情和动作来理解人类的情绪。这样就大大的增加了机器人在社会环境中与人互动的能力。

在演讲中,Nadia Thalmann教授为大家播放了一段视频,演示了Nadine在与人交流过程中的动作识别和交流上的交互。

能跟人类对话还不够,机器人还得会用表情、手势表达情绪|SIGGRAPH ASIA 2016

从视频中可以看出,在动作方面,比如人在她面前丢了一本书,她就会立即做出反应,并告知人类:“你掉了一个东西(something)”,不过目前她也只能识别出这个动作本身,至于动作的内容(别如识别掉落的物体)她并不能进行识别。

而在语言方面,人类与其对话时,表现出不友好的一面,比如用粗俗的语言跟她对话,她也不会像Siri一样机械地进行回答,而是会情绪化的对人类语言进行“反击”,并“怒目而视”。

能跟人类对话还不够,机器人还得会用表情、手势表达情绪|SIGGRAPH ASIA 2016

Nadia Thalmann说,对于机器人来说,给它加入动作识别及功能是非常重要的,因为一个真正的社交机器人应该能理解用户的行为,并用以手势、面部表情、目光等动作加以回应。

要达到以上的目标是非常难的,所以,Nadia Thalmann也在会上提出了社交机器人未来研发的三点挑战:

  • 让机器能够全面的感知用户的行为,并对用户的行为进行解释分析,理解用户的意图。

  • 做好利用局部传感让机器人在社交场合做出适合当时环境、语境的行为决策,而不是机械般的程式化。

  • 多线交流(不只是和一个人对话,而是多人环境)的同步以及反映的实时性的提升。

这些研究重点将在未来会一一实现,目前Nadine机器人只能有二十多种表情,而且能够识别的动作也有限,并且只能使用类似Kincet的体感设备来感知人的动作,未来在传感器等硬件方面还会有很大的提升空间。为了能够早日完成以上有挑战的研究点,Nadia Thalmann以及她的研究团队做出了一些具体的任务规划,来逐步完成:

  • 第一阶段:让机器人能够和人类对话并对人类的生活方面的某些数据进行长期监测。它能够帮用户做一些简单的事情,并且根据你的行为特征来分析一些对用户自身有意义的数据,比如健康信息,并且这些信息会嵌入到智能系统当中,当机器人跟你进行对话时就会将这些信息透露给你,举个例子,当你连续工作好几天,没有得到正常的休息,机器人就会提醒你:你已经很久没睡了,应该休息一下。

  • 第二阶段:在第一阶段的基础上增添多模式交互的框架,该框架能够使机器人能够完全理解用户的语言,并且在于人类聊天的时候,能够进行面部表情、手势等外部语言辅助的表达,并能够识别人类的表情和手势。

  • 第三阶段:有独立的思想和情感,能够基于人格和人类进行情感交互,比如能够有信任、同情等这类的抽象情感,并且能帮助人类解决更高级的问题,能提出更具有说服力的决策意见,成为你生活中完全的助手。

这样的目标量化对于完成真正的类人机器人的目标目前看起来貌似是可行的,在这其中就要做很多细致的工作,比如从外观开始做,研究一些适合机器人的3D打印项目,来给机器人做基础;还有仿生科技的研究,能够让机器人的行为举止不至于倾向“恐怖谷”,要更加的自然。以上属于外观的建模,除此之外还需要给机器人做情绪建模,这方面就复杂的多,涉及的知识点异常庞杂。

但拎出外观或者内核都不是最难的,其中最难点,也就是Nadia Thalmann她们正在研究的,是如何将二者完美的结合,让其语言和动作进行一个自然的交互状态,这才是类人机器人未来发展的关键所在。机器人真的达到第三阶段能够对人类有多大的帮助还不太好说,但一定能给人类的生活带来翻天覆地的变化。

相关文章:

朋克学术大牛上演“换头术”,原来深度学习还能这样玩!(附论文下载)|SIGGRAPH ASIA 2016

这是一个除了有PPT,还有电影看的神奇会议|SIGGRAPH Asia 2016第一天亮点指南

雷峰网原创文章,未经授权禁止转载。详情见转载须知

分享:
相关文章

编辑

关注互联网内容创作的一切。微信号:rockpen(*注明公司职位,否则不通过),请多指教。另有一公众号:artbyte,专注扯犊子。
当月热门文章
最新文章
请填写申请人资料
姓名
电话
邮箱
微信号
作品链接
个人简介
为了您的账户安全,请验证邮箱
您的邮箱还未验证,完成可获20积分哟!
请验证您的邮箱
立即验证
完善账号信息
您的账号已经绑定,现在您可以设置密码以方便用邮箱登录
立即设置 以后再说