您正在使用IE低版浏览器,为了您的雷峰网账号安全和更好的产品体验,强烈建议使用更快更安全的浏览器
此为临时链接,仅用于文章预览,将在时失效
人工智能开发者 正文
发私信给恒亮
发送

0

深度学习之经典卷积神经网络的技术浅析 | 硬创公开课预告

本文作者:恒亮 2017-02-23 18:14
导语:卷积神经网络还有这么多子类?

卷积神经网络(Convolutional Neural Networks)是人工神经网络的重要分支,目前已经成为语音和图像识别领域的一大研究热点。特别是在图像识别领域,由于其特有的权值共享网络结构,大大降低了模型复杂度,减少了权值数量,因此可以直接将多维图像作为输入数据展开训练,有效避免了传统识别算法中复杂的特征提取和数据重建过程。

逐本溯源,卷积结构最早出现于 1984 年的神经认知机(NeoCognitron)。发展到 1998 年,诞生了第一代经典卷积神经网络 LeNet,但随着支持向量机 SVM(Support Vector Machine)的出现,卷积神经网络一度归于沉寂。后来,随着 ReLu(Rectified Linear Units)和 Dropout 等激活函数的提出,以及 GPU 和大数据带来的历史机遇,卷积神经网络在 2012 年迎来了一个历史性的突破 —— AlexNet 网络。AlexNet 在当年的 ImageNet 图像分类竞赛中,Top-5 错误率比上年冠军下降了十个百分点,而且远远超过当年的第二名,震惊了整个行业。随后,以 AlexNet 为基础,又出现了 VGG(Visual Geometry Group)、Inception 和 ResNet 等多种不同的子类。

那么问题来了,这些各不相同的卷积神经网络究竟有哪些不同,它们各自的技术特点是什么,又都应用于哪些领域?面对所有这些疑问,雷锋网有幸请到了PPmoney 大数据算法总监黄文坚来做一个彻底的解答。

嘉宾介绍:

黄文坚,PPmoney 大数据算法总监,谷歌 TensorFlow 贡献者,畅销书《 TensorFlow 实战》作者(该书获得到了谷歌 TensorFlow 团队的官方推荐)。前明略数据技术合伙人,领导了对诸多大型银行、保险公司、基金的数据挖掘项目,包括建立金融风控模型、新闻舆情分析、保险复购预测等。曾就职于阿里巴巴搜索引擎算法团队,负责天猫个性化搜索系统。曾参加阿里巴巴大数据推荐算法大赛,于 7000 多支队伍中获得前 10 名。本科、研究生就读于香港科技大学,曾在顶级会议和期刊 SIGMOBILE MobiCom、IEEE Transactions on Image Processing 发表论文,研究成果获美国计算机协会移动计算大会(MobiCom)最佳移动应用技术冠军,并获得两项美国专利和一项中国专利。

课程内容:

本期公开课内容包括但不限于:

1. 卷积神经网络概述以及经典网络介绍

2. AlexNet 网络的技术特点介绍

3. VGG 网络的技术特点介绍

4. Inception 网络的技术特点介绍

5. ResNet 网络的技术特点介绍

活动详情:

2月28日 下午3点 微信直播群准时开课

扫描下方海报上的二维码,关注“AI科技评论”,在菜单里点击“公开课”添加管理员,管理员拉你进群交流。转发海报到朋友圈,还有机会赢取《Tensorflow 实战》书籍。

本次课程优先学术、技术开发人士进群,敬请知悉。

深度学习之经典卷积神经网络的技术浅析 | 硬创公开课预告

雷峰网原创文章,未经授权禁止转载。详情见转载须知

深度学习之经典卷积神经网络的技术浅析 | 硬创公开课预告

分享:
相关文章

编辑

欢迎交流,微信:whl123465
当月热门文章
最新文章
请填写申请人资料
姓名
电话
邮箱
微信号
作品链接
个人简介
为了您的账户安全,请验证邮箱
您的邮箱还未验证,完成可获20积分哟!
请验证您的邮箱
立即验证
完善账号信息
您的账号已经绑定,现在您可以设置密码以方便用邮箱登录
立即设置 以后再说