您正在使用IE低版浏览器,为了您的雷锋网账号安全和更好的产品体验,强烈建议使用更快更安全的浏览器
人工智能 正文
发私信给李尊
发送

1

AI没有那么神 洪小文告诉了我们为什么

本文作者:李尊 2016-09-28 20:25
导语:深度学习并不万能,AI的未来还得靠人类。

李尊, 宗仁联合编辑

一种普遍被认同的观点是:AI的发展速度会是指数式的,可能现在它看起来还很蠢,但是在你意识到它已经变强之前它就会越过那个“奇点”,迅速超过你,然后将你远远的甩在后面。

后来一些人开始慢慢意识到,奇点论确实有些夸张了。但是AI到底对我们的生活有没有影响?确实是有的,甚至很多时候,你能感觉到一些怀疑论者的观点并不夸张,甚至最近还有人说,随着人们越来越依赖于机器基于大数据以及各种算法帮他们做出的决定,我们实际上已经将自己的人生交给机器人控制。

本期硬创公开课,我们邀请到了微软亚洲研究院的院长洪小文博士,为我们讲解随着AI的快速发展其能否跟我们的智能相提并论,畅谈微软在人工智能上的发展战略(下)。

AI没有那么神 洪小文告诉了我们为什么

洪小文,微软全球资深副总裁,微软亚太研发集团主席,微软亚洲研究院院长。对微软SAPI(Speech API)和Speech Engine技术的发展作出了众所公认的卓越贡献,并多次获得类别不同的荣誉和奖励。它还是美国电机电子工程师学会院士(IEEE Fellow)和国际公认的语音识别专家,现任《美国计算机协会通讯》(Communication of the ACM) 的编委,并在国际著名学术刊物及大会上发表了百余篇学术论文。他参与合著的《语音技术处理》(Spoken Language Processing) 一书被全世界多所大学采用为语音教学课本。另外,他在多项技术领域拥有36项专利发明。洪小文既负责过基础研究,又管理过产品开发,同时,他还在多个研发领域有所涉猎。现在洪小文博士是微软亚太研发集团主席兼微软亚洲研究院院长,全面负责推动微软在亚太地区的科研及产品开发战略,以及与中国及亚太地区学术界的合作。他认为自己多年来形成的“双重视角”或许可以帮助国内的年轻学者把握到正确的方向。

深度学习从2006年到现在,没有大的基础理论进步, 但现在工业界热情高涨,我们在盲目推动什么?

任何事物都有两面性。深度学习或AI现在的确很火,正如主持人所讲,在理论方面目前没有大的突破性进展。究其原因是因为当一个理论有颠覆性的进展后,其应用门槛就被降低了。

  • 今天深度学习被赋予神秘的色彩,就是其理论方面的创造性发展将其应用门槛降低了,现在任何人只要能够有机会利用开源程序和大数据,都可以实现很好地应用。从这个角度来看,这也是深度学习受到业内人士欢迎的原因。

  • 另外一方面,深度学习当然不能解决所有的问题。当你有大数据资源时,深度学习能够做最好的决定,但是,它不知道为何做这些决定。目前,深度学习与机器打交道是没有问题的。但是,与人打交道时,如果不能得到人们的信服,在很多情况下,深度学习也会不见得那么有用。

  • 还有一个就是创造力。今天,所谓深度学习、机器学习、大数据在95%的程度上具有交叉性。人最了不起的是创造力,创造力是小数据问题。

例如,今年很受欢迎的一个话题叫做引力波。想想看100年后的今天,我们需要用很昂贵的设备才能够勉强测到有引力波的存在,那么请问100年前爱因斯坦在无数据的条件下是如何提出引力波理论,我认为这是深度学习所不能回答的问题。

在此,我们可以做一下总结:

从2006年到现在,当一个颠覆性的创新出现后,它将对人类的生活产生重大的影响,但是,这就意味着下一个创新可能会花费更多的时间。比如,学数学或物理的人都知道,你今天解决一个难题,不代表下一个难题会耗费更短的时间,这不像摩尔效率,这从人类发展的角度来看待,是讲不通的。所以,我认为,这是一个很自然的现象,当你有一个颠覆性的突破时,下一个创新将会花费更多的时间和脑力,历史经验告诉我们:这是颠扑不破的真理。

| 现在各个开源平台推进不算迅速,是开发者的水平没跟上,还是推开发平台的大公司功能不完善?

我认为,这一点都不矛盾。

因为开源平台是一个由下往上,而不是由上往下的一个开发平台。所有由下往上就代表并没有一个中心来协调这个过程,这样就会造成百家争鸣,百花齐放的结果。所以,我认为这是一个很自然的发展过程。

常常类似的一个计划,会被分成100种,200种,300种以上不同的小计划(差别不大),这样做效率不会是最高的,这也是其美丽的地方,能够让大家实现由下往上的创新。

我个人是非常乐观的,开源平台会在这样的基础上继续发展。微软近几年也热烈拥抱开源平台。我们也要尊重不同公司或个人的想法和目的,使他们能够自己的发展规划将这个计划朝不同的方向推展。

AI现在大多应用在功能性应用上,所以很多大公司领袖或者CEO们谈到AI的未来都会向公众呈现出一副喜闻乐见的态度,比如谷歌董事长表示曾表示“对于人工智能的快速发展,人们没什么好恐惧的,担心计算机胡作非为的都是些电影情节,该类技术能够帮助人类,而不是伤害人类,人工智能不会威胁到人类及其工作岗位。”

| 我觉得AI会不会威胁人类这个跟AI本身没关系,完全看AI背后的开发者(使用者)是不是拿它在作恶,您怎么看这个观点?

的确,不止我看到很多报道。我在和大众交流的过程中,大家也都有这种担心。身为科学家、科技公司的一员,我认为要给出一个更好的解释,让大家不用做一些不必要的担心,同时也要真正的指出哪些问题是大家将来必须面对的。

  • 首先讲一个原则,大家不用担心。

AI并没有那么神,和其它的机器一样,它还是被我们控制的。我们用它去做一些重复性的事情,把重要的决定任务交给我们自己。

说到这点我要补充一个,很多公司、媒体在描述(有时候是夸大)AI的同时却又说不用担心,这是有点矛盾的。我认为大家(特别是相关从业人员、公司)在探讨AI的时候应该实事求是,把它的优点和缺点都讲清楚

AI的优点可以和大数据结合做一些重复的事情,还能做一些决定。AI的缺点是没有创造力,背后必须有人在操作,还要目前的AI和深度学习是没办法解释它为什么会做这个决定的。

科学家和相关的从业公司在这个地方必须要讲清楚,不能含糊地带过。

  • 再来,AI背后都是人编程的

就像飞机、车子,大家都认为是好东西,但是它们也会被不法分子拿去做一些不好的事情。所以我们应该看得是AI背后是谁在操作它,而不只是关注在AI本身。

我们不用担心机器会自己去作恶,背后一定有人。最近有人提出要对AI做出限制,类似于“机器人六大法条”等,我个人有一些不一样的想法。法律应该是用来限制人,专门立法去限制一个非人类、机器是很奇怪的。应该把时间花在规范机器背后的人身上,要立法来限制不让他们利用机器去做非法的事情。

倒是在工作岗位上,这样一个考量确实是真的。但是这个事情也不特殊,每次技术出现颠覆性创新后,都会对相应的工作岗位造成影响。在人类历史上,特别是有颠覆性创新出现的时候,这种情况是经常出现的。比如说汽车、飞机的出现,都对相关产业的岗位造成了重大影响。

所以我个人来说是乐观的,因为我们有很多历史上的经验可以学习。如果要正视这个问题,可以从以下两个方面着手。

首当其冲的是教育方面,在学校里要教育下一代的学生哪些知识是未来所需要的,让他们适应未来的社会。


已经在职场的人员,要加强在职进修,或者说现在有个说法叫life-long learning,这个也是值得提倡的。

人类简史作者前不久提出,算法胜利,自由意志将终结这个观点,原话是“现在,一个新的转变正在发生。正如神的权力由宗教神话合理化,人的权力由人文主义思想认可,现在,高科技“大师”和硅谷“先知”正在创造一个全新的教条,让算法和大数据的权力合理化。这种新颖的教条可以称为“Dataism(数据主义)”。在数据主义的极端形式下,数据主义世界观的支持者将整个宇宙看作是一个数据流,认为生物几乎等同于生化算法,相信人类的宇宙使命是创建一个包罗万象的数据处理系统,然后融入其中。

|  我们正在变成一个巨大的系统中的微小芯片,没有人真正理解这个系统。您怎么看这个观点?

这两本书也的确是最近我非常推荐读者们去看的书,它们分别是《人类简史》和《未来简史》。 这两本书中涉及到人类学、宗教、宇宙,特别是科技,里面的观点真的很有意思,比较发人深省,能够让人进一步思考。但是有些结论我是要打问号的,我建议读者们就像那句老话说的:尽信书不如无书。它里面讲的所谓Dataism(数据主义), 的确我们的社会正在走向大数据、机器学习、AI这一类事物,但是这样的结论还是低估了全人类

为什么这样讲呢?人类的每一样发明(包括AI、深度学习),在其背后都有很多人明白其在哪些方面有缺失,也明白其需要如何往前发展。

打个比方,人类最了不起的是群体性的智慧。可能个体会比较聪明,但是个人想要造出一些特别先进的事物必须依靠群体的智慧。人类永远是需要知道为什么的,不会不明白背后的原理就拿来用。所以要对全人类充满信心,作者在未来简史中提到的这个问题我觉得大家可以不必去担心

| 按照人类简史上面观点的逻辑,以后大公司通过他们收集到的数据或许能让AI给出很符合我们心理的建议,但这种情况下做出的决定是否还属于我们自己?

像之前说的任何东西牵扯到人,很多时候在不了解之前,我们大部分是不会接受它的。对于什么是智能,我个人认为应该分成下面四种层次:

  • 功能——计算机有多少的计算速度、内存、硬盘空间等。

  • 智能——智能并没有范式,随着时间一直在改变。从打败人类的象棋冠军深蓝,到最近的AlphaGo,随时间不断进行改变。

  • 智力——创造力还有判断力,在数据不全的时候怎么去进行创造与判断。

  • 智慧——当你知道这个是对的,但是需要别人启发。

我不担心人类会把自己的决定完全交给别人,就像大部分人都不会把自己的投资交给别人。相反,大部分人会去收集一些资料,权衡风险、征集很多的意见在做出决定。人生中的很多决定都会听取别人的意见、自己也会做很多分析,(可能也会根据AI的意见)但是最终还是会自己做出决定,然后走下去。

| 作为微软亚太研发集团主席和微软亚洲研究院院长,工作强度和时间分配的问题?

我自己非常幸运从事科研的工作。虽然作为领导需要从事管理工作,但是大部分时间还是从事科研相关的工作。不过由于时间原因,我无法像大多数科研人员一样做一些具体的工作,比如编程等。但是我大部分时间都花在与研究员讨论问题、给予建议、批评、反馈 ,有时候也会有争辩,更多类似这一类的事情。有时候也会参与一些创造力、新算法的讨论,这些也是令我十分感兴趣的部分。

对于科研管理,我不太认为职业经理人这个模式可以在科研团队运转。因为对于科研的工作,职业经理人可能就不太专业了。因为对相关知识其实不是特别了解(编程、创新、分析相关问题),比如说像语音、计算机视觉等专业问题,必须要有一定的了解才能起到增强的作用。在研究院我们倾向于“由下往上”的科研方法,科研创新从来没有一次是由上往下的。在科学单位最重要的地方就是激发大家的潜能、让大家自由发挥、自由地提出自己的想法。

| 作为管理者,如何保证创新性和领先性呢?

要保证一个“求真”,在讨论技术的时候保证求真、不忽悠。我们也很高兴做出一个新技术,但是它未来能实现什么、可能会出现什么问题,需要保证一个求真、求实的态度。

基于这个原则,我在院里非常鼓励大家互相之间做Project Review时提出自己最真实的想法,在这种脑力激荡、最真实的想法讨论下,对于项目往下继续进行是非常有帮助的。我们希望基于由下往上、真实的原则下,在精益求精的状态下做得更好。

|  在人工智能这个战场,微软的发展战略是什么?着重在哪几个版块进行科研投入?未来在着重板块如何胜出?

微软和其它公司不一样的地方是微软是一家平台公司,这也是自身的历史、DNA决定的。

平台公司顾名思义本身做比较少的应用,大部分的工作都是做平台(包括人工智能)。然后我们的合作伙伴来做最后一层、最后一里的创新,最后变成一个应用或者解决方案。举例来说就像篮球中的助攻,最后的投篮得分是伙伴去进行的。做平台的一个好处就是可以接触到很多不同的领域,给出不同的助攻,这个和微软的宗旨是Empower也是相符的。

所以我们的战略就像这几年提出的微软认知服务(Cognitive Services),就是早期的牛津计划(Project Oxford)。在这个计划中我们有做语言、语音、视觉、知识以及搜索上面的API。我们希望第三方合作伙伴可以利用这项技术API结合自身数据、技术来开发出更多能造福广大的老百姓的技术。

最近我们也有提出了对话即平台Conversations as a Platform(CaaP)的人工智能发展方向,希望用聊天、对话的方式在服务、交互方面用自然语言来实现。目前小冰已经有和东航、京东在合作,希望能把它变为一个API平台。将来希望可以让更多的公司、政府部门来做一个智能的运用。我们相信这样一个平台的做法,能让我们对世界、社会、用户做出更大的贡献。

|  微软在智能交通工具方面有没什么特别的规划打算? (汽车行业好像很少有微软的一些特别的新闻出现,但他们很多技术像图像识别处理及语音识别等都可以用于汽车行业的)

微软自己并没有做智能交通和无人驾车服务,但是我们有吸引到很多厂商伙伴来一起合作开发。目前就有好几家在谈,利用我们的认知服务(Cognitive Service)比如语音、视觉等变成API,开发商再利用我们的API来去做智能交通系统。也有几家已经宣布合作,将来也会有更多,希望以后能有机会和大家分享。

AI没有那么神 洪小文告诉了我们为什么

雷锋网原创文章,未经授权禁止转载。详情见转载须知

AI没有那么神 洪小文告诉了我们为什么
分享:
相关文章

文章点评:

表情
最新文章
为了您的账户安全,请验证邮箱
您的邮箱还未验证,完成可获20积分哟!
请验证您的邮箱
立即验证
完善账号信息
您的账号已经绑定,现在您可以设置密码以方便用邮箱登录
立即设置 以后再说