您正在使用IE低版浏览器,为了您的雷峰网账号安全和更好的产品体验,强烈建议使用更快更安全的浏览器
此为临时链接,仅用于文章预览,将在时失效
人工智能 正文
发私信给camel
发送

1

张钹院士:AI科学突破的前夜,教授们应当看到什么?

本文作者:camel 2018-01-03 21:12
导语:商机应该让企业家去考虑;教授们应该去做人工智能的基础问题

雷锋网AI 科技评论按:12 月 27 日 清华大学脑与智能实验室举办了自 12 月 15 日成立之后的首次学术研讨会,主题为「从阿尔法 Go 到通用人工智能:脑科学与人工智能」。

在本次研讨会中,十位讲者分别从脑科学、神经科学、人工智能等各个侧面对「脑与智能」进行了报告,其中张钹院士的《AI和神经科学》尤为引人深思。

在报告中,张钹院士总结目前的AI有两种:符号模型和亚符号模型(连接主义)。其中前者为基于知识的模型,后者为基于数据的模型。他认为这些都不是真正的智能。要想研究真正的智能有两条路,一条是向神经科学学习看人脑中的神经网络是如何工作的,另一条是构建能够将知识与数据结合起来的模型。

他最后总结到,目前人工智能的研究已经到了关键时刻,教授们在 AI 中不应当只看到商机和应用,而是应看到 AI 的曙光,看到今天正是科学研究人员研究真正的智能的机会。

雷锋网根据张钹院士的演讲内容整理如下:

张钹院士:AI科学突破的前夜,教授们应当看到什么?

雷锋网注:张钹院士的报告全程英文,但最后用中文做了点睛之笔。

张钹院士在报告中首先分析了什么是智能。他认为智能包含三个成分:perceive、rational thinking 和 taking action。综合来说就是,一个智能体要能够感知它周围的环境,进行思考并采取行动来最大化它实现某些目的的机会。

现在的 AI model 无外乎两种类型:符号模型(Symbolic model)和亚符号模型(Sub-symbolic model)或者称为连接主义(Connectionism)。

符号模型

符号模型的基本思想主要由 J. McCarthy 等人于 1955 年提出。他们认为 AI 的研究基于这样一个猜想,即学习或者任何其他的智能特征原则上都可以被精确地描述。他们提出两个基本假设:

  • 物理符号系统假设:物理符号系统是智能的充分必要条件;

  • 人脑和计算机都是物理符号系统,认知过程就是在符号表示上的运算。

在 1976 年 Newell 和 Simon 提出了一个符号模型。它包含两部分:知识库和推理机(Inference Engine)。这种 AI 主要是知识驱动或者基于规则的模型。

张钹院士:AI科学突破的前夜,教授们应当看到什么?

在 McCarthy 等人提出符号模型之后大约 40 年,1997 年 IBM 推出的基于符号模型的 IBM 深蓝(Deep Blue)在国际象棋比赛中以 2 赢 1 败 3 平打败了当时的世界冠军 Kaspanov。在深蓝的系统中,包含了 700,000 份人类大师的棋谱,这些棋谱分别用 V-value 函数来表示,函数有 8000 多个变量。

张钹院士:AI科学突破的前夜,教授们应当看到什么?

IBM 沃森的结构

2011 年,IBM 沃森在综艺节目《危险边缘》中打败了最高奖金得主布拉德·鲁特尔和连胜纪录保持者肯·詹宁斯。同样它也是基于知识的符号型 AI 系统,它的知识来源于百科全书、字典 、词典、新闻、文学作品以及维基百科的全部文本,在其 4TB 的磁盘中包含了 2 亿页结构化和非结构化的信息。

以Watson为代表的新一代的基于知识的符号模型系统相对之前有少许变化。其一是知识库中的知识表示变成多样化;其二是多推理机(Multi-Inference Engines)结构;其三是增加了大众知识(来自互联网)。

张钹院士:AI科学突破的前夜,教授们应当看到什么?

但是这种知识驱动的符号模型也有其局限之处,如下:

  • 有很多人类行为(知识)并不能精确描述,例如常识;

  • 知识库总是有限的,它不能包含所有的信息;

  • 知识是确定的;

  • 它只能描述特定的领域;

  • 大量知识不能做到定量化(例如质量)。

所以这种模型只能在宏观层面上用来模拟人类的某些行为。

亚符号模型/连接主义

1965 年,在达特茅斯夏季研讨会的提议文件问题 2 中说到「怎么安排一组(假设的)神经元来形成概念?……这个问题仍需要更多的理论工作。」

对于神经网络,大致有两个时期。第一个为浅层神经网络(Shallow Neural Network),这个网络只有一层隐藏层。在这种网络中,需要手工特征(Hand-crafted Features)来构建分类器,因此它需要有领域的知识。

另外一种是在 2000-2006 年间,由 Igor Aizenberg 和 Geoff Hinton 完成。这个网络有更多的隐藏层,称为多隐藏层(深度)神经网络。多隐藏层的结构带来了很大的变化。首先是,我们可以用 Raw data 代替手工特征,所以领域知识也就不再是必须的了。以图像为例,我们只需要将图像按照 pixel 的格式输入即可。其次,深度神经网络让亚符号模型的表现有了很大的提高。再次,在 90 年代 AI 研究人员发展了一系列成熟的统计数学工具,这在模型中有很多表现,让模型变得更具可度量和可验证性。另外,这个模型有很清晰的神经科学的解释。

这种 AI 系统主要是基于数据驱动。只要有数据,我们不需要有太多的领域知识就可以在任务中做得很好。基于深度神经网络的例子很多,例如 AlphaGo。

相比于人类的神经网络,它仍有一系列的缺点。如下:

张钹院士:AI科学突破的前夜,教授们应当看到什么?

以 2014 年 Goodfellow 发表的《Adversarial examples and adversarial training》为例,输入的图片加上一点点的噪声,AI 系统就将一张明显是熊猫的图片以 99.3% 的置信度识别成长臂猿。所以目前的 AI 系统在 robustness 上还是非常弱的。

张钹院士:AI科学突破的前夜,教授们应当看到什么?

这种 AI 系统只是一种分类机器,是一个 AI without Understanding,所以仅仅依靠基于数据驱动的深度学习很难产生真正的智能,也远没有触及智能的核心。若想做到真正的智能,就必须

张钹院士:AI科学突破的前夜,教授们应当看到什么?

人工智能的核心

前面说道,深度学习并没有触及到人工智能的核心,那么人工智能的核心是什么呢?张钹院士认为主要表现为以下五个方面:

  1. 在缺乏知识和数据的情况下依然能够完成任务;

  2. 在信息不完善(甚至缺乏信息)的情况下依然能够完成任务;

  3. 能够处理非确定性的任务;

  4. 能够处理动态任务;

  5. 能够处理多领域和多任务。

AI 研究的新趋势

基于对上面的讨论,可以看出目前 AI 的研究有两种,基于知识的符号模型和基于数据的亚符号模型(连接主义)。张钹院士认为现在在 AI 研究中渐渐出现了一种新的趋势,即建立一种同时基于知识和数据的 AI 系统。

他认为,处理知识是人类所擅长的,而处理数据是计算机所擅长的。如果能够将二者结合起来,一定能够构建出一个比人类更加智能的系统。

如何去做呢?

张钹院士:AI科学突破的前夜,教授们应当看到什么?

现在我们有两种基本的 AI 方法。一种是基于语义符号的方法,一般用在处理文本和语言,我们会构建一个语义符号空间(Semantic Symbolic Space)。另一种是基于数据的特性向量的方法,用来处理图像和语音,我们会构建一个特性向量空间(Feature Vector Space)。

因此我们可以构建一个新的空间,叫做语义向量空间(Semantic Vector Space),即将语义符号空间进行 embedding 处理或者将特性向量空间进行 Raising 处理。通过这种方法,我们将可以统一处理 text、language、image 和 speech。

张钹院士认为在这些方面,尤其是在将特性向量空间 raising 到语义空间上,我们应该向神经科学学习。例如脑神经中有 feedback connection、lateral connections、sparse firing、attention mechanism、multi-model、memory 等机制,这些都值得设计 AI 系统的人员去注意和学习。

研究案例

张钹院士介绍了四个案例来说明如何向神经科学学习,以及如何构建同时基于知识和数据的 AI 系统。

一、Sparse Firing + HMAX

论文:Sparsity-Regularized HMAX for Visual Recognition

这项工作的一个创新点在于将神经科学中的发现 Sparse firing 和 HMAX 结合在一起。

张钹院士:AI科学突破的前夜,教授们应当看到什么?

HMAX 模型是 Riesenhuber, M. & Poggio, T 等人于 1999 年提出,其理念是模仿人的认知,由点到线到面逐级抽象,还原高级特性。HMAX 是计算机视觉中非常重要的一个模型。

Sparse firing 是神经科学中的一个概念。神经科学的研究表明在人的大脑中,针对一个刺激大多数神经元是沉默的。例如依照大脑内细胞的密度、探针大小以及探针可以测量到的信号距离来估计,一根探针应该可以测到周围十个甚至上百个神经元的信号,但实际情况通常只能测到几个神经元信号,90% 以上的神经元是测不到的。这就是说针对一个刺激,只有少数(稀疏)神经元是被激活的。

大脑神经元的这种 sparse firing 激活方式,或者说 sparse coding 方式有许多优点,一方面可以用少量的神经元对大量的特征进行编码,另一方面也能降低解码误判以及能量损耗等等。

这篇文章的工作正是将 Sparse firing 与 HMAX 模型相结合,应用于图像识别任务当中。工作非常有意思,感兴趣的读者不妨一读。

二、视觉识别验证码

论文:A generative vision model that trains with high data efficiency and breaks text-based CAPTCHAs ( Science, 26 Oct. 2017)

这篇文章于今年 10 月份发表于《Science》期刊,是人工智能向神经科学学习的一个范例。

目前的机器学习模型在图像识别的任务中往往需要大量的训练数据集,而训练的结果往往只能应用于特定的领域内。但人类的视觉智能则可以通过少数样本(甚至不需要样本)来学习并能够很轻易地迁移到完全不同的情景当中。所以向人类的视觉神经机理学习或许是机器学习模型进一步发展的方向。

在这篇文章中,知名的人工智能创业公司 Vicarious 就通过人类视觉一些工作机理的启发,构建了一个层级模型,他们称之为「递归皮层网络」(Recursive Cortical Network, RCN)。在模型中他们引入了视觉概率生成的模型框架,其中基于消息传送(message-passing)的推断,以统一的方式处理图像的识别、分割和推理(Reasoning)。

张钹院士:AI科学突破的前夜,教授们应当看到什么?

这个方法表现出了非常优秀的泛化和遮挡推理(occlusion-reasoning)能力,在困难的场景文字识别任务上远优于深度神经网络,且具有 300 倍的数据效率(data efficient)优势。

其实验结果如下表

张钹院士:AI科学突破的前夜,教授们应当看到什么?

在 reCAPTCHA 的验证码单词识别准确率已经可以达到 66.6%,BotDetect 为 64.4%,雅虎上为 57.4%,PayPal 上为 57.1%。

三、DNN 的可解释性

论文:Improving interpretability of deep neural networks with semantic information (2017)

这篇文章是张钹院士组在 CVPR 2017 上的一篇论文,是「Knowledge+data」的一个典型范例。

在传统的图像识别的 DNN 模型中,我们输入图片,得到描述性结果,但是我们却不知道为什么会得到这样的结果,也不知道隐藏层中都是什么 feature,或者当得到一个错误结果时我们不知道为什么会错。

张钹院士:AI科学突破的前夜,教授们应当看到什么?

这篇文章的研究主要方法就是先获得一些人类对图片的描述作为语义信息数据;将这些数据和图片同时送入到 DNN 模型中进行训练;这里每一个神经元都会与一个 topic 进行关联,于是整个网络变得具有可解释性。

张钹院士:AI科学突破的前夜,教授们应当看到什么?

四、Zero-shot 视频识别

论文:Recognizing an Action Using Its Name: A Knowledge-Based Approach

这篇文章的工作也是一个典型的「Knowledge+data」范例。

现有的动作识别算法需要一组正面的示例来训练每个动作的分类器。但是,我们知道,动作类的数量非常大,用户的查询变化也很大。预先定义所有可能的行动类别是不切实际的。

在本文中作者提出了一种不需要正面示例的方法,通常这种方法被称为「Zero-shot Learning」。目前的零点学习模式通常训练一系列属性分类器,然后根据属性表示识别目标动作。为了确保特定动作类别的最大覆盖范围,基于属性的方法需要大量可靠且准确的属性分类器,这在现实世界中通常是不可用的。

在这篇论文中,作者提出的方法只需要一个行动名称作为输入来识别感兴趣的行为,没有任何预先训练的属性分类器和正面的示例。

张钹院士:AI科学突破的前夜,教授们应当看到什么?

给定一个动作名称后,首先根据外部知识(例如 Wikipedia)建立一个类比池,类比池中的每个动作都会与不同层次的目标动作有关。

从外部知识推断的相关性信息可能是嘈杂的。所以他们又提出一种算法,即自适应多模型秩保持映射(Adaptive multi-model rank-preserving mapping model, AMRM)来训练动作识别的分类器,能够自适应地评估类比池中每个图片的相关性。

~~~~~~~~~~~~~~~~~~~

以上四个例子有两类,一类是向神经科学学习的结果;一类是基于「数据+知识」的结果。

张钹院士介绍说他们工作的一个思路就是:数据+知识=统计学习模型。其中知识包括先验模型、逻辑规则、表示学习、强健的统计约束等。

张钹院士:AI科学突破的前夜,教授们应当看到什么?

此外他还提到了的 Bayesian Deep Learning 的概念。

张钹院士:AI科学突破的前夜,教授们应当看到什么?

最后他认为我们目前的 AI 系统是在介观层面上模仿了人类,我们还需要向神经科学学习和合作。在 AI 系统的研究中应当将知识驱动和数据驱动结合起来,将理性行为和感性行为结合起来。

总结(划重点)

张钹院士演讲的亮点在最后的 summary,原文整理如下(稍作修改):

张钹院士:AI科学突破的前夜,教授们应当看到什么?

鲁迅说到,不同的人对《红楼梦》有不同的看法,经济学家看到《易》,道学家看到淫,才子看到缠绵,革命家看到反满,流言家看到宫闱秘事。

现在的人工智能有点儿像《红楼梦》,不同的人有不同的看法。企业家看到商机,科学家(霍金)看到危险,工程师看到应用前景,老百姓看到 AlphaGo 打败李世石。我现在就说教授们应该看到什么,这也是我今天报告希望大家能够看到的。

看到什么呢?就是——AI 科学的曙光。

大家看待 AI,有两个过程。过去是低看了 AI,觉得 AI 没什么。现在 AlphaGo 出来以后,突然 AI 上天了,大家对它仰视了。我告诉大家,这两个都不对。大家要平视 AI。

为什么过去对 AI 有这个印象呢?确实,过去的 AI 我们没有资格去谈,因为我们只有猜测、假设,只有 case by case。我们没有什么本事。再加上有些人炒作,不靠谱的东西很多。所以过去我们不能给大家谈。

现在我们有希望给大家谈的,就是刚才讲的。现在从深度学习中大家看到的是广泛的应用。但是没有看到深度学习给我们点燃了一个曙光,就是人工智能完全可以用建立数学模型的方法来做。当然它也告诉我们,光用数学的方法来建造人工智能是不行的,例如深度学习获得的结果只是一个机械的分类器,这跟人的认知或感知完全是两码事。

那么我们接下来怎么走向建造人工智能的数学模型这一步呢?只有两条路。一条就是向脑科学学习,看大脑里面是怎么做到智能的。大脑里面也是使用神经网络,   为什么它可以认识「鸟」,而计算机就不行呢?我们很清楚,计算机的这个神经网络和大脑的神经网络不可同日而语。我们必须向大脑学习。

另一条路就是把知识和数据结合起来。大家想一想,人的智能主要不是来自于数据,而是来自于知识。但是为什么大家要把数据看得这么重呢?这是因为数据很多,而且计算机最擅长的就是数据的处理。所以就给大家一个模糊的认识,以为数据决定一切。这是错的。但是这也给我们提了个希望,既然计算机搞数据厉害,人利用知识厉害,如果我们能够让这两个结合起来,我们就有希望做出比人还要好的系统。

问:张老师您好。您最后一个 slice 说在 AI 中商人看到了商机等等。所以我特别想知道您最后问的问题的答案,教授们应该看到的什么?

张钹:教授应当看到的是——去做人工智能的基础问题。我们不能去看那个商机,商机应该让企业家去看。我现在认为人工智能正处在突破的前夜。深度学习不是我们的突破,深度学习只是展示了突破的希望,因为深度学习并没有构造真正的 Intelligence。

现在我们有机会触及到 the core of intelligence。在什么情况下我们才有可能触碰 the core of intelligence 呢?就是刚才我讲那 5 个条件,即

  • 在缺乏知识和数据的情况下依然能够完成任务;

  • 在信息不完善(甚至缺乏信息)的情况下依然能够完成任务;

  • 能够处理非确定性的任务;

  • 能够处理动态任务;

  • 能够处理多领域和多任务。

现在的人工智能做的并不是真正的智能。它是选择了那些确定性的、静态的问题,这个本来就是计算机会干的事。计算机不会干的事是随机应变,举一反三,由表及里,这才是智能的本质。我们过去做的系统,没法做到智能的本质,因为我们还不知道。深度学习给了我们一个提示,就是我们已经接触到了智能的本质。那么我们沿着这个去做,才有希望。

大家现在都在消费深度学习。我们都知道,如果用深度学习来做识别,把石头看成人没有关系;但是做决策,把敌人看成朋友是不允许的。深度学习不解决这个问题,它绝对会产生大错。这是它本质造成的。   所以我一直说,到目前为止,在复杂路况下,还很难实现真正的无人车,「无人车」旁边还需要坐一个人。为什么?稍微懂点人工智能的人都知道,目前人工智能还不能解决突发事件。

过去我们没有能力做到真正智能这一点。而今天是科学研究人员的一个机会。希望大家去做。如果大家持续去做,我相信会有新的发现。现在很多人看到了商机,看到了应用,看到了计算机打败李世石,但却很少人有看到这一点。局外人看不清,作为局内人,我提醒大家,教授应当看到——AI 科学的曙光。

相关文章:

CNCC 2016|清华大学张钹院士起底: 后深度学习时代的人工智能

中科院院士张钹:智能制造中的AI是怎样的

雷峰网原创文章,未经授权禁止转载。详情见转载须知

张钹院士:AI科学突破的前夜,教授们应当看到什么?

分享:
相关文章
当月热门文章
最新文章
请填写申请人资料
姓名
电话
邮箱
微信号
作品链接
个人简介
为了您的账户安全,请验证邮箱
您的邮箱还未验证,完成可获20积分哟!
请验证您的邮箱
立即验证
完善账号信息
您的账号已经绑定,现在您可以设置密码以方便用邮箱登录
立即设置 以后再说