您正在使用IE低版浏览器,为了您的雷峰网账号安全和更好的产品体验,强烈建议使用更快更安全的浏览器
此为临时链接,仅用于文章预览,将在时失效
人工智能学术 正文
发私信给杨晓凡
发送

0

ICLR 2019 遗珠?加大号「变形金刚」,Transformer-XL

本文作者:杨晓凡 2019-01-16 10:05 专题:ICLR 2019
导语:芝麻开花节节高

ICLR 2019 遗珠?加大号「变形金刚」,Transformer-XL

雷锋网 AI 科技评论按:近几天,一篇 ICLR 2019 的拒稿引起了部分研究人员的注意。它不仅是一个能够处理可变长度序列的模型,在多个任务中刷新了当前的最好性能,而且它还是 Transformer 模型的第三代升级。它的名字叫作「Transformer-XL」(加大号的 Transformer)。

前两代 Transformer

2017 年 6 月,谷歌大脑在论文《Attention Is All You Need》中提出了一个完全基于注意力机制的编解码器模型 Transformer ,它完全抛弃了之前其它模型引入注意力机制后仍然保留的循环与卷积结构,然后在任务表现、并行能力和易于训练性方面都有大幅的提高。Transformer 从此也成为了机器翻译和其它许多文本理解任务中的重要基准模型。

2018 年 7 月,谷歌大脑在新论文《Universal Transformer》中对最初的 Transformer 进行了拓展,让它具有通用计算能力(也就是「图灵完备」)。他们使用了一种新型的、注重效率的时间并行循环结构,这样的设计让它不仅比 RNN 中使用的串行循环速度更快,也让 Universal Transformer 比标准的前馈 Transformer 更加强大,在更多任务中取得了有力的结果。(雷锋网 AI 科技评论详细解析文章见 这里

新的 Transformer

谷歌大脑的第三代 Transformer 也在 2018 年下半年完成。他们首先投稿了 ICLR 2019,近期论文评审结果陆续揭晓后他们把论文上传到了 arXiv。

这篇论文《Transformer-XL: Attentive Language Models Beyond a Fixed-Length Context》(Transformer-XL: 超越固定长度内容之外的注意力语言模型, https://arxiv.org/abs/1901.02860, https://openreview.net/forum?id=HJePno0cYm)把注意力放在了拓展模型大小,以及给模型增加可变长度序列的处理能力上。论文由谷歌大脑、谷歌 AI 的研究人员和 CMU 教授、苹果机器学习总监 Ruslan Salakhutdinov 和他的学生们共同完成。

论文摘要如下:

Transformer 网络其实有潜力学习更长期的依赖关系,但是在目前的语言建模任务的环境设置之下,网络的输入被限制为固定长度的内容。为了发掘这种潜力,作者们提出了一种新的神经网络架构,Transformer-XL,它可以让 Transformer 网络在长度不固定的内容中学习依赖,同时还不会干扰时空一致性。具体来说,Transformer-XL 由一个小节级别的循环机制和一个新设计的位置编码器模式组成。这种方法不仅让模型可以捕捉到长期的依赖,同时也可以解决内容分块的问题。这样的方法的效果是,Transformer-XL 学到的依赖要比 RNN 学到的长 80%,比最初的 Transformer 网络长 450%,在长、短序列上都取得了更好了性能,而且在推理时最高也要比最初的 Transformer 网络快超过 1800 倍。除此之外,作者们也刷新了多项任务中的最好成绩,text8 数据集从 1.13 提升至 1.08,WikiText-103 上从 20.5 提升至18.3,One Billion Word 数据集上从 23.7 提升至 21.8,Penn Treebank 数据集上从 55.3 提升至 54.5(而且不需要精细调节)。模型的代码、预训练模型、超参数都会同时提供 Tensorflow 和 PyTorch 版本。

ICLR 2019 遗珠?加大号「变形金刚」,Transformer-XL

值得说明的是,和 RNN 网络相比,Transformer 架构的网络家族可以轻松地加大网络规模,不仅更早的论文中 64 层的 Transfomer 拥有 2.35 亿个参数,这次 24 层的 Transformer-XL 更是达到了 2.77 亿的参数规模(当然也取得了更好的表现)。

即便这篇论文投稿到 ICLR 2019 并被拒了(拒稿原因包括「创新点不多」、「无法证明性能提升来自于工程手段还是新的思路」、「应当包括来自机器翻译任务的 ASR 表现」、「没有进行更丰富多样的实验」等),包括 David Ha 在内的许多学者还是认为这是一篇优秀的论文。David Ha 的评价是:它非常有用,在论文的补充材料中提供的代码可以在语言建模之外的许多任务中发挥作用。

感兴趣的读者可以详细阅读论文,并自己尝试作者们提供的预训练模型。

论文地址:https://arxiv.org/abs/1901.02860

代码开源:https://github.com/kimiyoung/transformer-xl,包含 PyTorch 和 TensorFlow 的模型实现,而且带有预训练的模型

雷锋网 AI 科技评论报道

雷峰网原创文章,未经授权禁止转载。详情见转载须知

ICLR 2019 遗珠?加大号「变形金刚」,Transformer-XL

分享:
相关文章

读论文为生

日常笑点滴,学术死脑筋
当月热门文章
最新文章
请填写申请人资料
姓名
电话
邮箱
微信号
作品链接
个人简介
为了您的账户安全,请验证邮箱
您的邮箱还未验证,完成可获20积分哟!
请验证您的邮箱
立即验证
完善账号信息
您的账号已经绑定,现在您可以设置密码以方便用邮箱登录
立即设置 以后再说