您正在使用IE低版浏览器,为了您的雷峰网账号安全和更好的产品体验,强烈建议使用更快更安全的浏览器
此为临时链接,仅用于文章预览,将在时失效
人工智能 正文
发私信给汪思颖
发送

0

强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下)

本文作者:汪思颖 2017-10-16 16:42
导语:关于一些细节和延伸。

雷锋网 AI科技评论按,本文作者华南理工大学胡杨,本文首发于知乎专栏GAN + 文本生成 + 读博干货,雷锋网 AI科技评论获其授权转载。本文为下篇,上篇参见强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(上)

5. 一些细节 + 一些延伸

上文所述的,只是 RL + GAN 进行文本生成的基本原理,大家知道,GAN在实际运行过程中任然存在诸多不确定因素,为了尽可能优化 GAN 文本生成的效果,而后发掘更多GAN在NLP领域的潜力,还有一些值得一提的细节。

5.1. Reward Baseline:奖励值上的 Bias

在4.2节中提到,我们采用鉴别器D给予生成样本 强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下) 的概率得分( 强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下) 属于真实样本的概率)作为奖励 强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下) ,既然是概率值,应该意识到这些概率得分都是非负的,如此一来即便生成出再差的结果,鉴别器D也不会给出负 强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下) 进行惩罚。从理论上来讲,生成器的训练会趋向于降低较小奖励值样本 强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下) 出现的概率而提高较大奖励值样本 强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下) 出现的概率,然而在实做时,由于采样不全等不可控因素的存在,这样不够分明的奖惩区别将有可能使得生成器G的训练变得偏颇。

强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下)

实际上,在强化学习的对话生成模型当中,就已经出现了此类问题。解决的方法很简单,我们设置一个奖励值 强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下) 的基准值Baseline,每次计算奖励值的时候,在后面减去这个基准值作为最终的 奖励 or 惩罚 值,使得生成器G的生成结果每次得到的奖惩有正有负,显得更加分明。记奖惩基准值为 强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下) ,则4.1节中优化梯度的计算公式修改为:

强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下)

对应地,在 RL + GAN 的文本生成任务中,同样在鉴别器D对各个生成样本打出的概率得分上减去奖惩基准值 强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下) ,则4.2节中 SeqGAN 与 Conditional SeqGAN 期望奖励值的优化梯度计算公式也分别修改为如下:

强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下)

强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下)

5.2. REGS:一人犯错一人当

细心的读者可以发现,在SeqGAN的奖励优化梯度计算公式的推导中,由鉴别器D给予的生成样本奖励得分其实是顺应序列文本的生成过程,逐词产生的,可以看到之前的推导公式中显示了对于Partly文本序列的阶段性奖励值求和再求平均。然而在起初的实验中,根据最终推导的奖励值优化梯度计算公式,鉴别器D被训练为用于对整句生成结果进行评估打分,这样的话,鉴别器D的打分对于生成序列中的每一个token都是同等的存在,要奖励就一起奖励(奖励值可视为相同),要惩罚就一起惩罚,这种做法会导致一个后果,看下面的例子。

比如有这样一个对话组(包含真实回答和生成回答):

question = ['你', '叫', '什么', '名字', '?']
real_answer = ['我', '叫', '张三', '。']
fake_answer = ['我', '不', '知道', '。']

很显然,鉴别器D能够轻易辨识后者回答是假的,必然会给出极低的奖励值得分,但是仔细对比真/假两个回答可以发现,第一个词 “我 ” 其实和真实样本的第一个词是一样的,而最后一个字符 “。”其实也并无大碍,它们其实并没有错,真正错误的是 “不 ” 和 “知道 ” 这两个词,但很不幸,鉴别器判定 fake_answer 的整体回答是假的,原本无辜的词项 “我 ” 和 “。” 也要跟着一起接受低分判定的惩罚。

让我们回到 GAN + RL 对文本生成模型的优化原理,假设 强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下) 是面对输入上文 强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下) 时生成对话下文 强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下) 的概率,我们将它拆分成逐个单词拼接的形式,每一个出现的词汇都将收到之前context的影响。

强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下)

在4.1,4.2节中提到,如果生成样本 强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下) 被鉴别器D打出低分(受到惩罚),生成器G将被训练于降低产出此结果的概率。结合上面这条公式,倘若单独将生成序列中的一部分前缀 强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下) 拿出来与真实样本中完全相同,岂不是也要接受整体低分而带来的惩罚?

解决这一缺陷的直接方法就是把奖惩的判定粒度进一步细化到 word 或 character 级别,在文本逐词生成的过程中对partly的生成结果进行打分。这种处理其实在SeqGAN的论文中[17]就已经实施了,拓展到Conditional SeqGAN中,优化梯度的计算公式应改写为如下:

强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下)

公式中, 强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下) 是计算的关键,它代表鉴别器D在文本逐词生成过程中获得部分文本的情况下对于最终reward的估计,简而言之就是每得到一个新的生成词,就结合此前生成的前序文本估计最终reward,并作为该生成词单独的reward,SeqGAN的论文中使用蒙特卡洛搜索[21](Monte Carlo Search,MC search)的方法计算部分生成序列对于整体reward的估计值。而在Conditional SeqGAN的论文中,赋予了这种处理一个名字 —— Reward for Every Generation Step(REGS)。

5.3. MC Search & Discriminator for Partially Decoded Sequences:准度与速度的抉择

上一节说到SeqGAN中使用MC search进行部分序列奖励估计值 强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下) 的计算,作为REGS操作的关键计算,其难处在于,我们并不能预知部分生成序列能给我们带来的最终结果,就好像一场篮球比赛,可能半场结束比分领先,却也不能妄言最终的比赛结果一样。

既然如此,在只得到部分序列的情况下, 强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下) 只得估计获得,Monte Carlo Search[21]就是其中一种估计方法,Monte Carlo Search的思想极其简单,假设我们已经拥有了部分生成的前缀 强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下) ,我们使用当前的Generator,强制固定这个前缀,并重复生成出$M$个完整的序列(有点采样实验的意思),分别交给鉴别器D进行打分,这 强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下) 个模拟样本的平均奖励得分即为部分序列 强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下) 的奖励估计值 强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下)

强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下)

当然,使用MC search的缺点也很明显:每生成一个词,就要进行 强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下) 次生成采样,非常耗时;还有一小点,每当我们计算较为后期的一些部分序列奖励估计值的时候,总是会无法避免地再一次计算前面早期生成的项,这样计算出来的 强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下) 可能导致对于较前子序列(比如第一个词)的过拟合。

另外一种方法提出于Conditional SeqGAN的论文,干脆训练一个可以对部分已生成前缀进行打分的new鉴别器D。将某真实样本的 强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下) 的全部前缀子序列(必须从第一个词开始)集合记作 强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下) ,同样将某生成样本$X^-$的全部前缀子序列集合记作 强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下) ,我们每次从这两者中随机挑选一个或若干个标定为 强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下)强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下) (与原序列相同),与原序列一同加入鉴别器D的训练中,这样训练得到的Discriminator便增添了给前缀子序列打分的能力,直接使用这样的Discriminator给前缀子序列打分即可获得 强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下) 。这种方法的耗时比起使用MC search要少很多,但得损失一定的准度。

一句话总结两种 强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下) 的计算方法:一种是利用部分序列YY出完整序列来给鉴别器打分,而另一种则直接将部分序列加入鉴别器的训练过程,得到可以为部分序列打分的鉴别器,一个较慢,另一个快却损失准度,如何选择就看大家了。

5.4. Teacher Forcing:给Generator一个榜样

在开始讲解SeqGAN中的Teacher Forcing之前,先帮助大家简单了结一下RNN运行的两种mode:(1). Free-running mode;(2). Teacher-Forcing mode[22]。前者就是正常的RNN运行方式:上一个state的输出就做为下一个state的输入,这样做时有风险的,因为在RNN训练的早期,靠前的state中如果出现了极差的结果,那么后面的全部state都会受牵连,以至于最终结果非常不好也很难溯源到发生错误的源头,而后者Teacher-Forcing mode的做法就是,每次不使用上一个state的输出作为下一个state的输入,而是直接使用ground truth的对应上一项作为下一个state的输入。

强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下)


就拿Seq2Seq模型来举例,我们假设正输出到第三项,准备生成第四项:

input = ['a', 'b', 'c', 'e', 'f', 'g', 'h']
output = ['o', 'p', 's', ...]
label = ['o', 'p', 'q', 'r', 's', 't', 'u']

Free-running mode下的decoder会将第三项错误的输出 output[2] = 's'(下标从0开始)作为下一个state的输入,而在Teacher-forcing mode下,decoder则会将正确样本的第三项  label[2] = 'q' 作为下一个state的输入。 当然这么做也有它的缺点,因为依赖标签数据,在training的时候会有较好的效果,但是在testing的时候就不能得到ground truth的支持了。最好的结果是将Free-running mode的behavior训练得尽可能接近于Teacher-forcing mode,Professor Forcing[23]使用GAN尝试实现了这一目标。

当然,这些都是题外话,我们要回到Teacher-Forcing mode最初的motivation:训练(迭代)早期的RNN非常弱,几乎不能给出好的生成结果(以至于破灌破摔,产生垃圾的output影响后面的state),必须依靠ground truth强行扶着走,才能慢慢进入正轨。

SeqGAN也存在这样的问题,一开始的生成器G非常弱,即便是经过一定量的预训练,也几乎生成不出好的Result,然后这些bad result给到鉴别器D必然只能返回很低的 强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下) (惩罚),生成器G的训练只能根据鉴别器的打分来优化而无法得到good example的指导,永远不知道什么是好的结果,结果必然是恶性循环。于是,有必要在SeqGAN训练中给到生成器G真实样本的指导,也就是告诉生成器:“什么样的样本才配得到高分 强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下) ?”

4.2节中提到,生成器G 和 判别器D的训练时交替进行的,由于鉴别器返回的打分是判定输入样本为真的概率,我们可以随机取出一部分真实的样本对话组 强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下) ,然后直接设置他们的鉴别器奖励值为 强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下) (或者其他任意定义的最高分),将它们加入生成器G的训练过程中,这样生成器就能知道何种样本能得到最高的奖励,从而一定程度上避免了SeqGAN的训练过程由于一方的弱势而发生崩塌。

强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下)

或者也可以这样:用训练好的鉴别器D也为随机抽样的真实样本打分,然后加入到生成器G的训练过程中,不过,一定要确保鉴别器D已经得到充分训练,至少给予任意真实样本 强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下) 的打分要高于baseline才行(奖励值经过偏置处理后也必须为正)。

强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下)

5.5. Actor-Critic:更广义上的GAN?

在DeepMind的一篇半综述式的文章[24]中,谈到了强化学习中的另一个特殊的模型——Actor-Critic,并分析了这个模型与GAN之间的联系。

首先我们回顾一下GAN中鉴别器D和生成器G优化时的目标函数:

强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下)

强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下)

再说说强化学习,在基于策略迭代的强化学习中,通过尝试当前策略的action,从环境获得 强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下) ,然后更新策略。这种操作在游戏实验环境中非常有效,因为游戏系统有封闭且清晰的环境,能够稳定地根据各种接收到的action客观地给出对应 强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下) ,而在现实生活中,很多时候并没有封闭清晰的环境,给定action应该得到什么样的 强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下) 本身也不准确,只能通过设定DIY的打分器来实现,显然这么做很难完美model真实世界千变万化的情况。

那么,能不能先学习出一个能够准确评估出奖励值的值函数 强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下) ,尽可能地描述环境,对各种action返回较为公正的预期奖励呢?也就是说 强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下) 的估计模型本身也是被学习的,这就是Actor-Critic,Actor部分采用传统的Policy Gradient优化策略 强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下) ,Critic部分借助“Q-Learning”学习出最优的action-value值函数,听起来有没有点像GAN的模式?来看看它的目标函数,其中 强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下) 指任意一中Divergence,值域非负当且仅当两个分布相同时取值为零即可(比如,KL-divergence, JS-divergence 等等):

强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下)

强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下)

文中将GANs模型比作一种特殊形式的Actor-Critic,并比较了两者各自的特点以及后续的改进技术在两者上的适配情况。试想一下,既然强化学习技术帮助GAN解决了在离散型数据上的梯度传播问题,那么同为强化学习的Actor-Critic也为对抗式文本生成提供了另外一种可能。

强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下)

5.6. IRGAN:两个检索模型的对抗

IRGAN[25]这篇工作发表于2017年的SIGIR,从作者的阵容来看就注定不是一篇平凡的作品,其中就包含SeqGAN的原班人马,作者将生成对抗网络的思想应用于信息检索领域,却又不拘泥于传统GAN的经典Framework,而是利用了IR领域原本就存在的两种不同路数的model:生成式IR模型 和 判别式IR模型。

生成式IR模型目标是产生一个query 强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下) document的关联度分布,利用这个分布对每个输入的query返回相关的检索结果;而判别式IR模型看上去更像是一个二类分类器,它的目标是尽可能地区分有关联查询对和无关联查询对,对于给定的查询对,判别式IR模型给出该查询对中的两项的关联程度。

光从两个模型简单的介绍来看就能丝丝感觉到它们之间特殊的联系,两种风格迥异的IR模型在GAN的思想中“有缘地”走到了对立面,我们将生成式IR模型记作: 强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下) ,将判别式IR模型记作: 强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下) ,于是整个IRGAN的目标函数为:

强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下)

在IRGAN中,鉴别器D定义为判别式IR模型的逻辑回归:

强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下)

于是鉴别器D的目标函数进一步写为:

强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下)

相对地,生成器G就直接输出以query为condition答案池中所有document与该query的关联分布,不幸地,我们必须将通过这个关联分布,过滤出当前认为最相关的document答案,才能作为鉴别器D的输入来判定此时此刻检索结果的质量,原本连续型的分布经过这一步的折腾又变成离散型的数据了,还好,我们有强化学习,设 强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下) ,则生成器G的目标函数被写成:

强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下)

也就是最大化鉴别器D给出的奖励,而这个奖励值主要来源于检索结果形成的查询对 强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下) 在判别式IR模型中被认为确实有关联的概率之和。将求和符号内的项记作: 强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下) ,按照Policy Gradient的方式进行梯度优化,并使用4.1节中的推导方法描述 强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下) 的优化梯度,在实做时为了方便,采样 强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下) 个当前生成式IR模型给出的查询结果求近似。

强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下)

当然,也不能忘了我们的baseline—— 强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下) ,文中设置baseline为当前查询结果的平均期望 强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下)

强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下)

上述是针对Pointwise情形的IR任务,不同于Pointwise情形着重于得到直接的检索结果,Pairwise情形的IR把更多精力放在了ranking上,其返回结果 强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下) 中全是非对称二元对,其中 强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下)强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下) 与当前的查询项关联性更高。IRGAN也可以扩展到Pairwise的情形,原则是:“一切从减”。 鉴别器函数将改写为:

强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下)

而假设生成器G是一个softmax函数,则Pairwise情形下的变形和简化推导如下:

强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下)

强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下)

IRGAN在Pairwise情形下的总目标函数如下,其中, 强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下) 表示真实的非对称二元组,而 强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下) 则表示生成式IR模型生成的二元组:

强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下)

IRGAN的一大特点是,对抗model中的两个组件各自都是一种IR模型,所以经过对抗训练之后,不管拿出来哪个,都有希望突破原先的瓶颈。作者还关于IRGAN的训练目标是否符合纳什均衡做了一些讨论,尽管在真实检索的应用中很难获得所谓的真实关联分布,但作者认为不管是观察到的关联样本还是未观察到的关联样本,判别IR模型的输出总是和生成IR模型的对应输出存在着正相关的作用力,于是也孕育而生了文中那个关于浮力和拖拽重物最终达到漂浮平衡状态的略显晦涩的比喻。

强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下)

结语

这一领域的发展之迅速,也许在我完成这篇Blog的时候,又有一批工作争先恐后的冒出来了,但最终的结局肯定不止于此,我也不怎么擅长结尾,也许要等待GAN来为我,为我们带来一个奇妙的结局。

Acknowledgement

要特别感谢台湾大学李宏毅老师生动的授课[26],这为我在多个知识点上的理解带来了重要的帮助。

Reference

[1] 何永灿CSDN. 好玩的文本生成[EB/OL]. http://geek.csdn.net/news/detail/131622.

[2] Ashwin, K, Vijayakumar, Michael, Cogswell, Ramprasath, R, Selvaraju, Qing, Sun, Stefan, Lee, David, Crandall, Dhruv, Batra. Diverse Beam Search: Decoding Diverse Solutions from Neural Sequence Models[J/OL]. https://arxiv.org/abs/1610.02424v1.

[3] Minh-Thang, Luong, Hieu, Pham, Christopher, D, Manning. Effective Approaches to At-tention-based Neural Machine Translation[J/OL]. https://arxiv.org/abs/1508.04025.

[4] W. Chan, N. Jaitly, Q. Le and O. Vinyals, “Listen, attend and spell: A neural network for large vocabulary conversational speech recognition,” ICASSP, 2016, https://research.google.com/pubs/pub44926.html.

[5] Jiwei, Li, Minh-Thang, Luong, Dan, Jurafsky. A Hierarchical Neural Autoencoder for Par-agraphs and Documents[J/OL]. https://arxiv.org/abs/1506.01057.

[6] 郑华滨. 从PM到GAN——LSTM之父Schmidhuber横跨22年的怨念[EB/OL]. https://zhuanlan.zhihu.com/p/27159510?utm_source=zhihu&utm_medium=social.

[7] Jürgen, Schmidhuber. Learning Factorial Codes by Predictability Minimization[J]. Neural Computation, 1992, 4(6): 863-879, http://www.mitpressjournals.org/doi/abs/10.1162/neco.1992.4.6.863.

[8] Ian, J, Goodfellow, Jean, Pouget-Abadie, Mehdi, Mirza, Bing, Xu, David, Warde-Farley, Sherjil, Ozair, Aaron, Courville, Yoshua, Bengio. Generative Adversarial Networks[J/OL]. https://arxiv.org/abs/1406.2661v1.

[9] Samuel, R, Bowman, Luke, Vilnis, Oriol, Vinyals, Andrew, M, Dai, Rafal, Jozefowicz, Samy, Bengio. Generating Sentences from a Continuous Space[J/OL]. https://arxiv.org/abs/1511.06349.

[10] 郑华滨. 令人拍案叫绝的Wasserstein GAN[EB/OL]. https://zhuanlan.zhihu.com/p/25071913.

[11] Ishaan, Gulrajani, Faruk, Ahmed, Martin, Arjovsky, Vincent, Dumoulin, Aaron, Courville. Improved Training of Wasserstein GANs[J/OL]. https://arxiv.org/abs/1704.00028.

[12] Matt, J, Kusner, José, Miguel, Hernández-Lobato. GANS for Sequences of Discrete Ele-ments with the Gumbel-softmax Distribution[J/OL]. https://arxiv.org/abs/1611.04051.

[13] Martin, Arjovsky, Soumith, Chintala, Léon, Bottou. Wasserstein GAN[J/OL]. https://arxiv.org/abs/1701.07875v1.

[14] Sebastian, Nowozin, Botond, Cseke, Ryota, Tomioka. f-GAN: Training Generative Neural Samplers using Variational Divergence Minimization[J/OL]. https://arxiv.org/abs/1606.00709.

[15] Eric, Jang, Shixiang, Gu, Ben, Poole. Categorical Reparameterization with Gum-bel-Softmax[J/OL]. https://arxiv.org/abs/1611.01144.

[16] Jiwei, Li, Will, Monroe, Alan, Ritter, Michel, Galley, Jianfeng, Gao, Dan, Jurafsky. Deep Reinforcement Learning for Dialogue Generation[J/OL]. https://arxiv.org/abs/1606.01541v3.

[17] Lantao, Yu, Weinan, Zhang, Jun, Wang, Yong, Yu. SeqGAN: Sequence Generative Adver-sarial Nets with Policy Gradient[J/OL]. https://arxiv.org/abs/1609.05473.

[18] Mehdi, Mirza, Simon, Osindero. Conditional Generative Adversarial Nets[J/OL]. https://arxiv.org/abs/1411.1784.

[19] Scott, Reed, Zeynep, Akata, Xinchen, Yan, Lajanugen, Logeswaran, Bernt, Schiele, Honglak, Lee. Generative Adversarial Text to Image Synthesis[J/OL]. https://arxiv.org/abs/1605.05396.

[20] Jiwei, Li, Will, Monroe, Tianlin, Shi, Sébastien, Jean, Alan, Ritter, Dan, Jurafsky. Adver-sarial Learning for Neural Dialogue Generation[J/OL]. https://arxiv.org/abs/1701.06547.

[21] Silver, D.; Huang, A.; Maddison, C. J.;Guez, A.; Sifre, L.; et al. 2016. Mastering the game

of go with deep neural networks and tree search. Nature 529(7587):484–489, http://www.nature.com/nature/journal/v529/n7587/abs/nature16961.html.

[22] Williams, R. J. and Zipser, D. (1989). A learning algorithm for continually running fully recurrent neural networks. Neural computation, 1(2), 270–280, http://www.mitpressjournals.org/doi/abs/10.1162/neco.1989.1.2.270.

[23] Alex, Lamb, Anirudh, Goyal, Ying, Zhang, Saizheng, Zhang, Aaron, Courville, Yoshua, Bengio. Professor Forcing: A New Algorithm for Training Recurrent Networks[J/OL]. https://arxiv.org/abs/1610.09038v1.

[24] David, Pfau, Oriol, Vinyals. Connecting Generative Adversarial Networks and Ac-tor-Critic Methods[J/OL]. https://arxiv.org/abs/1610.01945.

[25] Jun, Wang, Lantao, Yu, Weinan, Zhang, Yu, Gong, Yinghui, Xu, Benyou, Wang, Peng, Zhang, Dell, Zhang. IRGAN: A Minimax Game for Unifying Generative and Discriminative Information Retrieval Models[J/OL]. https://arxiv.org/abs/1705.10513v1.

[26] Hungyi, Lee. Machine Learning and having it Deep and Structured[EB/OL]. http://speech.ee.ntu.edu.tw/~tlkagk/courses_MLDS17.html.

雷峰网版权文章,未经授权禁止转载。详情见转载须知

强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下)

分享:
相关文章

编辑

关注AI学术,例如论文
当月热门文章
最新文章
请填写申请人资料
姓名
电话
邮箱
微信号
作品链接
个人简介
为了您的账户安全,请验证邮箱
您的邮箱还未验证,完成可获20积分哟!
请验证您的邮箱
立即验证
完善账号信息
您的账号已经绑定,现在您可以设置密码以方便用邮箱登录
立即设置 以后再说