全球人工智能与机器人峰会 CCF-GAIR 2019
您正在使用IE低版浏览器,为了您的雷锋网账号安全和更好的产品体验,强烈建议使用更快更安全的浏览器
人工智能 正文
发私信给黄善清
发送

0

蓄谋已久?「GANs 之父」 Ian Goodfellow 跳槽苹果

本文作者:黄善清 2019-04-05 12:14
导语:将在苹果公司领导一个「机器学习特殊项目组」

雷锋网 AI 科技评论按:生成对抗网络之父、前谷歌大脑著名科学家 Ian Goodfellow 正式宣布加盟苹果,他将在苹果公司领导一个「机器学习特殊项目组」。

蓄谋已久?「GANs 之父」 Ian Goodfellow 跳槽苹果

亚马逊首席科学家、MXNet 作者李沐上周在知乎上爆料,他从某机器学习大佬处得知,Ian Goodfellow 已从 Google 离职。文中他强调「无关小道消息」,表明消息基本可靠。

蓄谋已久?「GANs 之父」 Ian Goodfellow 跳槽苹果

鉴于过去他有过谷歌与 OpenAI「来回跳槽」的经历,很大一部分人好奇他一旦离开谷歌后,是否又会重投 OpenAI 的怀抱。直至昨日,他将个人 LinkedIn 信息正式更新为苹果公司「主管」,具体任期从今年 3 月份开始持续至今,具体职务为「特殊项目小组的机器学习主管」。

蓄谋已久?「GANs 之父」 Ian Goodfellow 跳槽苹果

这一更新,震惊四座,毕竟从他 3 月份至今的推特情况来看,互动最频繁的依然是来自谷歌大脑和 OpenAI 的小伙伴们。当然,更重要的是,他这次没有选择重回 OpenAI 的怀抱。

蓄谋已久?「GANs 之父」 Ian Goodfellow 跳槽苹果

3月份他还亲自转发了谷歌 AI 的推文

随后不久,谷歌发言人证实了他的离职,不过却拒绝对此作出回应,Ian Goodfellow 同样对此三缄其口。

从苹果公司角度而言,这次挖角 Ian Goodfellow 的举动倒不令人意外,毕竟苹果曾经为了追赶 AI 能力,专门把 Core ML 和 Siri 团队进行合并,成立全新 AI/ML 团队,并挖来谷歌人工智能和搜索主管约翰·詹南德雷亚 (John Giannandrea) 掌管全公司的人工智能战略。

Ian Goodfellow 作为 GANs 之父,其 2016 年在 NIPS 大会上关于生成式对抗网络(利用生成式模型和判别式模型进行对抗并实现机器学习训练的过程)经过几年的发酵,早已奠定其机器学习大咖的地位。作为机器学习界的后起之秀,被「心急」想发展 AI 实力的苹果觊觎,再正常不过。

目前,苹果已开始通过博客宣传其 AI 研究,为此专门开设了 AI 博客 Apple Machine Learning Journal,也许用不了多久,我们便能看到 Goodfellow 在上面发表最新的研究成果,让我们一起拭目以待吧!

蓄谋已久?「GANs 之父」 Ian Goodfellow 跳槽苹果

Ian Goodfellow 任职经历

2013 年 6 月,还在蒙特利尔大学读博的 Ian Goodfellow 就以软件工程师的身份在谷歌的 Street Smart team 实习,并在毕业后先后担任谷歌 TensorFlow 及谷歌大脑团队的研究科学家。

2013 年 6 月,在蒙特利尔大学读博的 Ian Goodfellow 就以软件工程师的身份在谷歌的 Street Smart team 实习,并在毕业后先后担任谷歌 TensorFlow 及 Google 大脑团队的研究科学家。

2016 年 3 月,Ian GoodFellow 转投 OpenAI 担任研究科学家。

2017 年 3 月,Ian Goodfellow 从 OpenAI 重回谷歌,2018 年升任 Google 大脑团队的 Senior staff research scientist ,负责领导一个研究 AI 中对抗技术的研究团队。

2016 年 3 月,Ian GoodFellow 便从谷歌大脑团队投奔 OpenAI 麾下担任研究科学家。

一年过后,也即是 2017 年 3 月份 ,Goodfellow 又重回谷歌大脑团队。

2019 年 3 月,正式加盟苹果。

Ian Goodfellow 谈 GANs 论文评审

「越是好论文,越是资深审稿人在看」

我想谈谈学术会议的论文评审的事。最近我看到很多人讲「很明显,好的论文都给资深审稿人看了」,或者「要记得去占论文,不然分给你的都是质量不高的论文」这样的话。既然我现在也算是资深审稿人了,我想很多人应该愿意听到我说这句话:我自己不会主动要求去审那些明显的好论文。

审稿人希望审哪些论文可能会出于各种各样的目标。每个审稿人都应该想好自己的目标,并且了解一些其它审稿人可能会抱有的目标。我参与论文评审一般有两个目标:1,确保论文的质量足够高;2,减少我自己作为审稿人的工作量。基于我的这两个目标,我希望评审的论文多数时候都是可能需要拒掉的,但其它的审稿人不一定能看出来其中的原因。有一些非常忙的审稿人甚至会要求只看那些明显质量很糟糕的论文,就是为了尽量减轻自己的工作量。

审稿人们其它可能的目标还包括:比一般大众更早地看到有意思的研究(不过现在论文都传 arXiv 了,这样的人就没那么多了)、确保好的研究成果不会被拒、审阅他们自己做过深入研究的某几个课题下的论文,等等。当然也有一些审稿人的做法很消极、很自私。比如,审稿人和某篇论文的作者有私人恩怨,那他就可能会要求审这篇论文,以便给它打个低分。现在大量论文都会先传到 arXiv 上,论文投稿的匿名性大打折扣,这种事情也就变得常见了。

不过也有一件需要说明的是,审稿人抢占论文的作用不一定有你想象的那么明显。区域主席一般都会把审稿人列表手动整理到比较高的水平上。起码我自己做区域主席的时候确实这样做了。自动审稿人分配系统经常需要忽略很多指定审稿的要求,以保证每一篇论文都会有人审。我自己就确实遇到过这样的情况,之前已经选了「不想审」的文章结果还是分配给我了,我的好几个朋友也跟我讲他们也遇到过。

如果我做区域主席的话,基本可以肯定我会给每篇论文分一个在那个课题上称得上绝对专家的审稿人,有必要的时候我甚至会邀请新的审稿人加入。比如我就经常从安全社区邀请审稿人来看机器学习安全性的论文。

如何评审对 GANs 做出通用改进的论文

对于 GANs 工作原理的理论和实证研究论文都已经有很多,关于如何把 GANs 用在一些有意思的或者奇怪的新任务的论文也有很多(比如第一篇用 GANs 做无监督翻译的),还有很多研究模型的评价指标的。我没打算谈这些。也有很多论文把 GANs 作为一个大系统当中的一部分,比如用 GANs 做半监督学习、差分隐私、数据增强等等。这些也不是我想谈的——这都需要在那个所在的大系统的应用领域中进行评价。

我下面想聊的是能够普遍地让 GANs 的训练变得更稳定,或者能让 GANs 产生更好的样本等等的改进 GANs 表现的新方法。我首先推荐 GANs 论文的审稿人都应该读一读《Are GANs Created Equal》(https://arxiv.org/abs/1711.10337)这篇论文,它解释了为什么这个领域的实证研究非常难做,要做的话如何才能做对。另一篇很适合阅读的背景知识论文是《A Note on the Evaluation of Generative Models》(https://arxiv.org/abs/1511.01844),它解释了为什么有的模型可以同时具有很棒的样本和很糟糕的似然,又或者同时有很糟糕的样本和很高的似然,以及其它生成式模型会遇到的评价指标方面的问题。

GANs 的论文写作有一大难点,就是如何有新颖性。现在大家已经提出了许许多多的 GANs 改进模型,很难把它们全都追踪到,很难弄清自己的一个新的想法是不是真的以前没有人做过。最好尝试在谷歌上把它的四五种不同的叫法都搜搜试试,看看会不会有人已经提过了。已经有人把各种 GANs 的变体总结出了资源,可以到这个 GAN ZOO 看看(https://github.com/hindupuravinash/the-gan-zoo)。即便论文里提出的新方法不是全新的,它可能还是有一些价值的,但是审稿人应当确保论文作者充分了解之前的研究中的内容。

评价指标发展到现在,Frechet Inception Distance(或者它的类别内版本)大概是现有方法里衡量通用的 GANs 表现最好的一种方法了。对于 ImageNet 之外的数据集,定义距离的时候用模型而不是 Inception 是很合理的做法。有一些研究特殊情况的论文可能也会包括其它的一些评价指标(比如带有 real NVP(real-valued non-volume preserving,无体积真值保留)的 GANs 可以报告准确的似然),但是如果一篇论文里没有包括 Frechet Inception Distance,那么我就很想了解一下这是为什么了。

有很多论文希望读者多观察生成的样本,并以此为主要依据形成论文所提方法的印象。这通常是一个不好的信号。以我的了解,有的领域的问题用以往的方法从来没有解决过,然后 GANs 带来了明显的提升、能生成样本了,这才是通过样本展示方法效果这种做法主要适合的地方。比如说,用单个 GANs 模型生成 ImageNet 中各种内容不同的图像曾经很难做,许多论文尝试解决这个问题但结果基本都是失败的。SN-GAN 成功地为所有类别都生成了可以辨认的样本,那么从这一点就可以看到 SN-GAN 是一项重大改进。(虽然这种提升也可能是所提的方法之外的因素带来的,比如新的、更大的架构等等)

相比之下,很多论文中展示了来自 CIFAR-10 或者 CelebA 数据集生成的样本,然后希望审稿人被这些样本折服。对于这样的情况,我作为审稿人其实根本不清楚他们希望我在其中找到哪些亮点。这都是一些已经基本得到解决的任务,那我也基本就对这些论文失去了兴趣。同时,对于一些有某种小缺陷的图像,和其它定性地有另一种小缺陷的图像之间,我也不知道应该如何排序,也许这种时候掷骰子或者画十字格可能会更合适一点?出于这些原因我一般不会把来自 CelebA 和 CIFAR-10 等等的生成样本当一回事,它们也就只能佐证一下这个方法没有大的纰漏而已。

对于任何一个实现了自己的模型作为基准模型的人,审稿人都应当很小心。有很多细小的改动都可以让深度学习算法出问题,而论文作者也有充分的动机不去仔细检查自己的基准模型。一般来说,各个基准模型里至少要有一个是在别的论文中展示过的,因为那一篇论文的作者会有一些主动性得到好的结果。这样做的话,对模型的评价起码不会过于自私。

审稿人也应当检查一下实现了一样的模型、做了一样的任务的其它论文,其中都分别得到了什么分数。引用一篇论文,但是展示的图像/分数比原论文实际写的要差,很多人都在这样做。当然了,其它研究领域内也有这种故意打压别人的基准模型的做法,但是我觉得在 GANs 的论文中这种情况尤为严重。

有一些情况下,一篇论文研究的是一个全新的任务,或者是以前别人研究过的任务的某个罕有关注的方面,作者可能会有必要自己实现一个基准模型。在这种情况下,我觉得这篇论文可能需要花差不多一半的篇幅论证自己的基准模型是正确的才比较合适。

所有超参数的取值都来自哪里也非常重要,一定要解释。经常发生的情况是,新提出的方法之所以有更好的表现,真正的原因其实是作者花了更多时间、想了各种办法为新方法优化超参数。

许多深度学习算法,尤其是 GANs 和强化学习,每一次运行得到的结果都会有非常大的区别。论文里展示结果的时候,对于同样的超参数应当至少展示三次运行得到的结果,才能对结果的随机性有个初步的感受。有很多论文,从结果看来似乎是有所改进,但其实就是从新方法的结果里挑出比较好的,然后从老方法的结果里挑出比较差的,最后再放在一起比而已。即便有一些不能明显看出在挑选结果的论文,通常在报告学习率曲线的时候也是用一根线表示新方法,一根线表示老方法,然后这两根线之前的区别并不大。对于这样的情况,我敢说同一个方法跑两次的结果都会大相径庭。

对于解释超参数是如何优化的,说明选择这样的超参数是为了优化最大值、最小值、还是多次运行之后的平均值非常重要。还有一件需要注意的是,针对某种好的方法写出一篇糟糕的论文是完全有可能的。有时候我们看到一篇论文里提出的新方法有很好的表现,但同时文中还有很多想法是没有科学的依据的。后面这样的做法审稿人应当尝试驳回。

如果你是区域主席,我非常希望你可以对审稿人-论文之间的匹配做一些仔细的调节。我觉得这世界上没有哪个人完全懂得 GANs 的方方面面。举例说明,如果你拿到了一篇论文,内容是带有编码器的 GANs,那你应该试着找写过 ALI、BiGAN、alpha-GAN、AVB 论文的作者来看这篇论文。即便是我,对于 GANs 下面的许多子课题的了解也是非常有限、无能为力。

如果你审的论文是关于模式崩溃的,然后论文作者认为模式崩溃意味着模型记住了训练样本的一个子集的话,你需要有所怀疑。模式崩溃的实际状况要邪门得多。比如,模式崩溃得到的结果经常是一些奇怪的垃圾点,而且和实际数据一点都不像。在训练过程中这样的点还会在空间中来回移动。模式崩溃也有一种表现是对图像中某种纹理或者背景的重复,其中有一些细微的改变,但对的情况在人眼看来应当有很大的变化。

今天讲给大家的思考题就这么多吧。对于各位 GANs 论文的审稿人来说,你们也可以考虑下给别人提出的意见在自己身上是不是适用。

雷锋网 AI 科技评论 雷锋网(公众号:雷锋网)

雷锋网原创文章,未经授权禁止转载。详情见转载须知

蓄谋已久?「GANs 之父」 Ian Goodfellow 跳槽苹果
分享:
相关文章

文章点评:

表情
最新文章
请填写申请人资料
姓名
电话
邮箱
微信号
作品链接
个人简介
为了您的账户安全,请验证邮箱
您的邮箱还未验证,完成可获20积分哟!
请验证您的邮箱
立即验证
完善账号信息
您的账号已经绑定,现在您可以设置密码以方便用邮箱登录
立即设置 以后再说