您正在使用IE低版浏览器,为了您的雷峰网账号安全和更好的产品体验,强烈建议使用更快更安全的浏览器
此为临时链接,仅用于文章预览,将在时失效
人工智能 正文
发私信给sanman
发送

0

北航博士生黄雷:标准化技术在训练深度神经网络中的应用|分享总结

本文作者:sanman 2018-04-28 10:12
导语:本文主要分享了一些深度神经网络中的一些标准化技术

雷锋网AI科技评论按:标准化技术目前已被广泛应用于各种深度神经网络的训练,如著名的批量标准化技术 (Batch Normalization, BN) 基本上是训练深度卷积网络的标准配置。装配有 BN 模块的神经网络模型通常比原始模型更容易训练,且通常表现出更好的泛化能力。

近期,在雷锋网 GAIR 大讲堂上,来自北京航空航天大学的博士生黄雷同学将阐述标准化技术应用于训练深度神经网络中的主要动机以及介绍一些主流的标准化技术,除此之外报告人也将讲解其沿着这个方向发表在 AAAI 2018 的论文《Orthogonal Weight Normalization: Solution to Optimization over Multiple Dependent Stiefel Manifolds in Deep Neural Networks》。视频回放地址:http://www.mooc.ai/open/course/478。

黄雷,北京航空航天大学计算机学院博士,曾于 2015 年 10 月至 2016 年 10 月在密歇根大学安娜堡分校 Vision & Learning 实验室做关于深度学习模型优化方面的研究。主要的研究领域为深度神经网络中标准化技术,半监督学习,非参主动学习及相关方法在计算机视觉和多媒体领域中的应用。目前已发表学术论文十余篇,包括 CVPR,ICCV 和 AAAI 等。

分享主题:标准化技术在训练深度神经网络中的应用

分享提纲

1. 标准化技术应用于深度神经网络训练的主要动机及相关方法介绍。

a)   标准化技术加速神经网络训练的主要动机

b)   主要的标准化方法介绍

2. 正交权重标准化技术:在通用的前向神经网络中学习正交过滤器组。

a)   在深度神经网络中学习正交过滤器组的主要动机

b)   基于重参数化方法求解多个依赖的Stiefel流形优化问题

c)   实验结果介绍

分享内容

本次分享主要包括两个方面:一是标准化技术的介绍,二是我发表在AAAI上的论文—Orthogonal weight normalization(OWN)。

首先介绍一下为什么要对输入数据进行标准化操作,对输入数据进行标准化操作在传统机器学习或数据挖掘中是很常见的,一是因为标准化操作通常能够提高模型的训练效果,这对非参模型非常重要比如KNN、Kernel SVM,二是因为标准化可以提高优化的效率,使得模型收敛相对较快,这对参数化模型比较重要。

北航博士生黄雷:标准化技术在训练深度神经网络中的应用|分享总结

现在再讲一下为什么在深度神经网络中,对隐藏层的激活值进行标准化非常重要,我们以多层感知器为例进行讲解。

北航博士生黄雷:标准化技术在训练深度神经网络中的应用|分享总结

刚才讲完了在深度神经网络中对激活值进行标准化的主要动机,接下来介绍一些标准化技术。第一个方法就是非常著名的Batch Normalization,我们讲一下它的主要动机。

北航博士生黄雷:标准化技术在训练深度神经网络中的应用|分享总结

接下来我们来说一下Batch Normalization具体如何做标准化,其实对于BN来说涉及到好几个方面的选择。第一个方面是标准化操作是基于整个训练数据集还是基于mini-batch数据?第二个方面是把标准化操作中的量当做是待估计的参数还是当做数据的函数?第三是要不要进行完全的白化操作?我接下来分别解释一下Batch Normalization是怎样选择的,以及为什么这样选择。

北航博士生黄雷:标准化技术在训练深度神经网络中的应用|分享总结

基于之前的想法,Batch Normalization的具体的实现如下所述。我想特别说明一下为什么把Batch Normalization放在线性单元的后面而不是放在线性单元的前面,这其实有违于其对数据进行白化操作的动机。当然把BN放在线性单元的前面和后面各有优缺点。

北航博士生黄雷:标准化技术在训练深度神经网络中的应用|分享总结

接下来介绍一下Batch Normalization两个比较好的属性。一是加速训练,二是有泛化能力。

北航博士生黄雷:标准化技术在训练深度神经网络中的应用|分享总结

下面我大致整理了一下Batch Normalization相关的工作,分为四个方面。

北航博士生黄雷:标准化技术在训练深度神经网络中的应用|分享总结

我主要介绍small batch size problem、Extending standardization to whitening 、Normalize activation Implicitly这三个方面的工作。首先是small batch size problem,我按时间顺序把相关工作列出来并简单地比较一下。

北航博士生黄雷:标准化技术在训练深度神经网络中的应用|分享总结

总结一下这个方向的工作抽象来说就是设计一个基于输入数据的变换且要保证该变换是可微的,这样就能够保证每批量数据有稳定的分布,从而能够稳定训练。然而,从优化的观点来看,我认为还是Batch Normalization做的最好。

北航博士生黄雷:标准化技术在训练深度神经网络中的应用|分享总结

接下来我们讲一下Extending standardization to whitening这个方向的工作。一个操作是把白化变换中的相关量当做是待估计的参数,另外一个是把白化操作的相关量看做是输入数据的函数。

北航博士生黄雷:标准化技术在训练深度神经网络中的应用|分享总结

第三个方向是Normalize activation Implicitly。通过对参数、权重矩阵进行相关处理来进行标准化。这里面的最早的一个工作是Norm Propagation。

北航博士生黄雷:标准化技术在训练深度神经网络中的应用|分享总结

接下来我讲一下我发表在AAAI2018上的论文—正交权重标准化技术。之所以引入正交过滤器是因为它有两个很好的属性,一是能量保留的属性,二是冗余度低。这两个属性对于稳定神经网络各层的激活值的分布以及规整化神经网络来说有很大的好处。这个方向之前也有一些相关工作,但是只限定于在RNN的隐藏层到隐藏层的变换中使用。

北航博士生黄雷:标准化技术在训练深度神经网络中的应用|分享总结

但我们期望在前向神经网络中学习更一般的矩形正交矩阵。之前也存在使用约束惩罚的方法。

北航博士生黄雷:标准化技术在训练深度神经网络中的应用|分享总结

因为我们期望学习正交矩阵,那么我们可以把该问题当做限制优化问题。我把问题定义为Optimization over Multiple Dependent Stiefel Manifolds (OMDSM) 。之所以这么定义有两个原因,一是包含多个嵌入的子流,二是每个权重矩阵的损失函数的误差曲面相互依赖。

北航博士生黄雷:标准化技术在训练深度神经网络中的应用|分享总结

定义完问题之后我们尝试使用Riemannian方法来求解这个问题,但实验结果并不理想。

北航博士生黄雷:标准化技术在训练深度神经网络中的应用|分享总结

受启发于重参数方法以及正交变换是可微的这个结论,我们的方法是设计一个代理参数矩阵,对其进行正交变换得到正交化的权重矩阵,且优化是基于代理参数矩阵。

北航博士生黄雷:标准化技术在训练深度神经网络中的应用|分享总结

为了保证稳定性,期望使得变换后的矩阵正交权重矩阵和代理参数矩阵差异最小。对上图问题进行求解可以得到下图结果。

北航博士生黄雷:标准化技术在训练深度神经网络中的应用|分享总结

有了前向变换以及一些相关的结论,我们也可以进行backward propagation使得梯度流通过该正交变换。把这两个过程封装成module,我把它称为Orthogonal Linear Module (OLM) 。

北航博士生黄雷:标准化技术在训练深度神经网络中的应用|分享总结

最后我也对其进行了相关拓展,如考虑如何在卷积上进行拓展等。

北航博士生黄雷:标准化技术在训练深度神经网络中的应用|分享总结

然后我再简单介绍一下我做的相关实验。

北航博士生黄雷:标准化技术在训练深度神经网络中的应用|分享总结

北航博士生黄雷:标准化技术在训练深度神经网络中的应用|分享总结

实验结果表明使用我们的的OLM替换原有层后训练的效果提升比较显著。我的这篇论文说明了两件事,一是在前向神经网络里面可以确切的学习到正交过滤器,二是这种学习到的正交过滤器可以提升深度神经网络的效果。我觉得将这种方法使用到GAN训练等其他方面也可能得到好的效果。

北航博士生黄雷:标准化技术在训练深度神经网络中的应用|分享总结

以上就是雷锋网对本次分享的全部整理。大家如果感兴趣可以观看视频回放:http://www.mooc.ai/open/course/478。

雷峰网原创文章,未经授权禁止转载。详情见转载须知

北航博士生黄雷:标准化技术在训练深度神经网络中的应用|分享总结

分享:
相关文章
当月热门文章
最新文章
请填写申请人资料
姓名
电话
邮箱
微信号
作品链接
个人简介
为了您的账户安全,请验证邮箱
您的邮箱还未验证,完成可获20积分哟!
请验证您的邮箱
立即验证
完善账号信息
您的账号已经绑定,现在您可以设置密码以方便用邮箱登录
立即设置 以后再说