0
DeepMind的创始人Demis Hassabis加入AI行业大辩论来分享新观点了。
随着AI技术的突飞猛进,行内人对AI的看法也越来越多样复杂。前有马斯克四处宣扬“AI可能使人类灭亡”,后有Andrew Ng嗤之以鼻“担心超级智能AI的人就像是在担心火星人口太多”,还有奥特曼坚持“加速AI研发才能解决全球挑战”,李飞飞反复强调“必须确保AI为人服务”。
各种论点争得热火朝天,Demis Hassabis也闪亮登场,发表了自己的观点。
Hassabis冷静地指出,现在有些初创公司和投资者已经被 AI 的短期潜力冲昏了头脑。虽然AI 未来的发展潜力无限,但目前那些听起来像科幻电影的目标,其实大多只是噱头,技术远未成熟。要识别这些 AI 公司宣传是真是假,Hassabis 的秘诀是:了解他们的技术背景和趋势,尽量远离那些盲目跟风的公司。
面对当前的 AI 热潮,Hassabis心情复杂。一方面,他怀念AI尚未受到太多关注时的宁静,没有那么多喧嚣和干扰;另一方面,他也认可如今的关注推动了 AI 在现实世界中的积极应用。
虽然Hassabis支持 AI 开源,但也清醒地意识到这背后的巨大风险,特别是 AI 被用作不良目的的潜在威胁。他提出了一个折中方案:延迟发布开源模型,让它们落后于前沿技术一两年,以减少安全隐患。
Hassabis特别强调了对AGI和AI管控的担忧。他认为开源模型一旦发布便无法收回,需更严格的安全措施和测试环境。他提议开发 AI 助手以监控和测试下一代 AI 系统,同时建议在发布 AI 系统时附带使用说明,帮助用户理解其功能和风险。
虽然也有担忧,但Hassabis对实现AGI的未来抱有极其乐观的态度。他相信,AGI将帮助人类解决重大科学难题,通过帮助人类治疗疾病、开发清洁能源等方式提升人类社会生活质量。Hassabis描绘了一个梦幻的未来场景,“未来的AI将让我们彻底告别工作,尽情享乐,专注于探索生活的意义。”
以下是 Demis Hassabis 的播客内容,AI 科技评论作了不改原意的整理:
Hannah Fry:我想知道,现在公众对AI的兴趣激增,你的工作是更容易还是更困难?
Demis Hassabis:我认为这是一把双刃剑。我认为这更难,因为整个领域都有太多的审查、关注,而且还有很多噪音。其实,我更喜欢之前关注的人更少的时候,也许会更专注于科学。
但这也是好事,因为它表明该技术已经准备好以许多不同的方式影响现实世界,并以积极的方式影响人们的日常生活。所以我认为这也很令人兴奋。
Hannah Fry:您对这件事如此迅速地引起公众的想象力感到惊讶吗?我的意思是,我猜您预料到了人们最终会加入到AI行业。
Demis Hassabis:是的,完全正确,尤其是像我们这些一样致力于这个工作许多年,甚至几十年的人。所以我想在某个时候,公众会意识到这个事实。事实上,每个人都开始意识到AI有多重要。
但看到它真正实现并发生仍然是相当超现实的。我想这是因为聊天机器人和语言模型的出现。每个人都在使用语言,都能理解语言。因此,对于公众来说,这是一种简单的办法来理解并衡量人工智能的发展方向。
Hannah Fry:我想问你一些关于炒作的问题。你认为我们现在所处的位置,目前(AI)的情况是被夸大了还是低估了?或者它只是大肆宣传,也许方向上发生了错误。
Demis Hassabis:是的,我认为更多的是后者。所以我认为在短期内,这是过度炒作。人们声称可以做各种不能做的事情。有各种各样的初创公司和风险投资公司在追逐尚未准备好的疯狂的想法。
另一方面,我认为它仍然被低估了。我认为即使是现在认为它仍然被低估了,或者说甚至现在都还没有得到足够的重视。当我们进入AGI时代和后AGI时代会发生什么?我仍然觉得人们还不太了解这将会是多么的巨大(的一件事)。因此也没有理解其责任。
所以两者都有,真的。目前短期内它有点被夸大了,我们正在经历这个循环。
Hannah Fry:不过我想就所有这些潜在的初创公司和风险投资公司等而言,正如你所说,你在这些领域已经工作和生活了几十年,有足够的能力去辨别哪些初创公司有现实的目标,哪些不是。但是对其他人来说,他们要如何区分什么是真实的,什么是虚假的?
Demis Hassabis:我认为显然你必须进行完全的技术调查,对技术和最新趋势有一定的了解。
我认为也可以看看说这些话的人的背景,他们的技术背景如何,他们是从去年才加入AI领域的吗?可能他们去年在做加密货币。这些可能是他们在跟风追随潮流的一些线索。当然,这并不意味着他们不会有一些好的想法。
很多人都会这样做,但我们应该说,这更像是彩票。
我认为当一个地方突然受到大量关注时,这种情况总是会发生的,金钱也会随之而来。每个人都感觉自己错过了什么。这创造了一种机会主义的环境,这与我们这些几十年来一直专注于深度技术、深度科学的人相反。我认为这正是我们需要的理想方式,尤其是当我们越来越接近AGI时。
Hannah Fry:我想到的下一个问题是关于开源的。因为当事情掌握在人们手中时,正如你所提到的,真正非凡的事情可能会发生。我知道Deep Mind过去有很多开源项目,但现在随着我们的前进,这种情况似乎略有改变。所以请告诉我您对开源的立场。
Demis Hassabis:正如你所知,我是开源和开放科学的大力支持者。
我们已经放弃并发布了我们几乎所做的所有事情,包括transformers和AlphaGo之类的东西。我们在Nature和Science上发表了所有的东西。正如我们上次介绍的那样,AlphaGo是开源的。这是不错的选择,你会觉得它是绝对正确的。
这也是所有工作都能顺利进行的原因,因为通过共享信息,技术和科学才能尽快进步。所以,我们几乎总是这样做,这是一个普遍的好处。
科学就是这样运作的。例外的情况是,当你在面对AGI和强大的AI时(确实会陷入这种情况),就是当你拥有双重用途的技术时。你想要让所有的使用案例都从好的方向出发,所有真正的科学家都能善意地采取行动,让技术建立在想法之上,对想法进行批判等等。这样,这才是社会进步最快的方式。
但问题是,如何同时限制不良分子的访问权限,他们会拿走相同的系统,将它们重新用于不良目的,把它们滥用在武器系统等地方。这些通用系统可以像这样被重新调整用途。
现在还好,因为我认为现在的系统没有那么强大。但是在两到四年的时间里,特别是当你开始使用智能体系统或者用AI做一些行为时,那么我认为,如果它被某人或甚至是流氓国家滥用,可能会造成严重的伤害。而且我没有办法解决这个问题。
但作为一个社群,我们需要思考这对开源意味着什么?或许我们需要对前沿模型进行更多的检查,然后只有在它们发布一两年后,才能开源。
这就是我们正在遵循的模式,因为我们有自己的Gemini开放模型,名为Gemma。因为它们更小,所以它们不是前沿模型。它们的功能对开发人员仍然非常有用。因为它们有更少的参数数量,很容易在笔记本电脑上运行。虽然它们不是前沿模型,但它们只是不如最新的,Gemini 1.5那么强大。
所以我认为这可能是我们最终会采取的方法,我们将拥有开源模型,但它们会落后于最先进的模型,也许落后一年,这样我们就可以真正评估通过以下方式进行公开评估:用户了解这些模型可以做什么,前沿模型可以做什么。
Hannah Fry:我想你真的可以测试出随机的边界在哪里。
Demis Hassabis:是的,我们会看到边界在哪里。开源的问题是,如果出了问题,你就想不起来了。
而在闭源模型方面,如果你的操作者开始以不良方式用它,你只需要像关闭水龙头一样关闭它即可。在特殊情况下,你可以把它关闭。
但你一旦开源了某些东西,你就无法收回了。所以这是一个单向门。所以当你这样做时,你应该非常确定。
Hannah Fry:但是在一个模型中有包含AGI的可能性吗?
Demis Hassabis:这是一个完全独立的问题。我认为当你开始谈论强大的AGI级别的时候,我们现在不知道该怎么做。
Hannah Fry:那关于中间的过渡呢?
Demis Hassabis:关于这一点,我认为我们对于如何做到这一点有很好的想法。其中之一就是一个类似安全沙盒的东西。我想在游戏环境或尚未完全联网的互联网版本中测试智能体行为。在这个领域,我们可能会借鉴金融科技领域的理念,构建这类系统。
但是,我们也知道,这并不足以容纳 AGI(一种可能比我们更聪明的东西)。所以我认为我们必须更好地理解这些系统,这样才能为人工智能设计协议。到那时候,我们就会有更好的办法来控制它,也有可能使用AI和工具来监控下一版本的AI。
Hannah Fry:关于安全问题,我知道您是2023年由英国政府在布莱切利公园举行的AI安全峰会的重要参与者。从外界来看,我认为很多人只是在说监管这个词,就好像它会自己进来解决一切问题一样。但是你对于如何构建监管体系有什么看法?
Demis Hassabis:我认为各国政府加快参与其中的速度是件好事。
最近公众对AI的兴趣爆发的一个好处就是,政府正在关注这个话题,尤其是英国政府。我认为这很棒,我和他们谈过很多次,还有美国政府。他们的政府工作人员中有很多非常聪明的人,他们现在已经对这项技术了解得很清楚了。
我也很高兴看到英国和美国成立了人工智能安全机构,我认为许多其他国家也会效仿。我认为在AI风险变得非常高之前,这些都是我们需要遵守的很不错的先例和协议。
这也是一个证明的阶段。我认为国际合作确实是必要的,最好是围绕监管、安全护栏和部署规范等方面进行合作。
因为AI是一种数字技术,所以很难将它控制在国界内。当我们开始接近AGI时,我的观点是你必须这样做。因为技术变化如此之快,我们必须非常灵活和轻松地进行监管,以便适应最新技术的发展方向。
如果你在五年前对AI进行监管,你监管的东西与我们今天看到的完全不同。而且五年后可能会再次不同,这些基于智能体的系统可能是风险最高的系统。所以现在我建议加强已经存在的领域的现有法规,比如健康、交通等。
我认为可以像之前为互联网更新一样进行实时更新。同时,做一个像简报一样的东西,这也可能是我要做的第一件事情。简报用于确保人们能理解并测试前沿系统。
当人们对AI系统的使用变得更加清晰和明确时,就能更好地围绕这些行为对AI系统进行监管。
Hannah Fry:你可以给我们概述一下什么是Grounding吗?
Demis Hassabis:Grounding是80年代和90年代在特斯拉和麻省理工学院建立经典的AI系统,一些大型逻辑系统,的原因之一。你可以把它想象成一个单词与其他单词关联的巨大语言库。
比如说,“狗有腿”就在这个库里面。但问题是,如果你给它展示了一张狗的图片,它根本不知道这些像素的集合指的是那个符号。这就是Grounding问题。
在语言库里面有一个象征的抽象表达,但是无法确定这个抽象的东西在现实世界真正意味着什么。人们尝试解决这个问题,但永远也无法做到完全正确的对应。
当然,现在的系统不是这样的,它直接从数据中学习,所以从某种程度上来说,现在的系统从一开始就建立了这种联系。
Hannah Fry:Astra计划,Google新的通用AI助手项目,可以接收视频和音频数据。之前你举了Astra帮你记住眼睛放在哪里的例子,所以我想知道这个产品的定位,是之前的Google眼镜的一个全新版本吗?
Demis Hassabis:当然,Google在开发眼镜型设备上有着悠久的历史,可以追溯到2012年,在这方面可以说是遥遥领先的,但他们只是缺少这样一种技术。
通过Astra,你能真正理解,一个AI智能体或者说AI助手所看到的一切。所以我们对数字助理能够陪伴您并了解您周围的世界感到非常兴奋。当你使用它时,它真的能给你提供非常自然的体验。
Hannah Fry:大语言模型还有一段路要走,这些模型还不太擅长一些事情。
Demis Hassabis:是的。实际上这就是现在主要的争论。最新的这些模型其实是从五六年前发明的技术中诞生的。问题是,它们仍然有很多问题需要改进。我们都知道,大语言模型会产生幻觉,还不擅长做规划。
Hannah Fry:什么意义上的规划?
Demis Hassabis:长期规划。他们无法解决问题,尤其是一些长期的事情。如果你给它一个目标,它们其实无法真正为你在世界上采取行动。它们很像被动的问答系统。你向它提出问题,然后它会给你某种回应,但它们无法为你解决问题。
你可能会想象这样一个场景。你对AI助手说给我计划意大利的假期,预订好所有的餐馆和博物馆。它知道你喜欢什么,随后它就会帮你处理好机票等所有东西。
其实现在的AI智能体做不到这样的事情。但我认为这是在下一个时代可以实现的,我称之为“基于智能体的系统”或“具有类似智能体行为的系统”。这是我们所擅长的东西。
这也是我们从过去做游戏智能体AlphaGo开始就一直想要做的事情,我们正在做的很多事情都是将这些我们出名的工作成果与新的多模态模型结合起来。我认为这将会是下一代系统,你可以把它看作是Alpha和Gemini的结合。
Hannah Fry:是的,我猜AlphaGo非常擅长做规划?
Demis Hassabis:没错,它非常擅长做规划,当然仅限于游戏领域。我们还需要把它推广到日常工作和语言的一般领域。
Hannah Fry:在你描述的未来图景中,如果我们到了AGI的阶段,专注科学研究的机构还存在吗?
Demis Hassabis:我认为是的。在AGI阶段,社会、学术界、政府和工业实验室都会在一起合作进行研究。我认为这是我们到达最后阶段的唯一途径。如果是在AGI之后,我认为我们可以用它来回答一些物理学中的原理、现实的本质、意识等方面的最基本的问题。
Hannah Fry:你认识计算机科学家Stuart Russell吗?他告诉我他有点担心,一旦我们进入人工智能时代,我们可能会变得像过去的皇家王子一样,那些从来不需要登上王位或者做任何工作的人,只是过着肆无忌惮的奢华生活而没有任何目的。
Demis Hassabis:是的,这是一个有趣的问题。它超出了AGI的范围,更像是人们称之为ASI的超级AI。
那时候我们应该拥有彻底的富足。假设我们公平公正地分配这些资源,那么我们将有更多的自由来选择做什么。到那时候,意义将成为一个重大的哲学问题。我们需要哲学家,甚至是神学家,去思考这个问题。
回到我们之前说的炒作,我认为即使那些炒作也绝对低估了AI可能带来的转变。我认为在极限范围内会变得特别好。我们将会治愈许多疾病或者说所有的疾病,解决我们的能源问题、气候问题。
接下来的问题就只是,这有意义吗?雷峰网雷峰网(公众号:雷峰网)
各位读者是否赞同Hassabis的观点呢?欢迎在评论区分享你对未来AI的设想~
雷峰网版权文章,未经授权禁止转载。详情见转载须知。