您正在使用IE低版浏览器,为了您的雷峰网账号安全和更好的产品体验,强烈建议使用更快更安全的浏览器
此为临时链接,仅用于文章预览,将在时失效
专栏 正文
发私信给新智元
发送

1

开源后5个月,Google的深度学习系统都有哪些改变?

本文作者:新智元 2016-04-15 15:52
导语:2016年4月14日,Google发布了分布式TensorFlow。这会是一场人工智能复兴运动的开始吗?

编者按:本文作者Simon,来自新智元(微信号:AI_era)

【导读】2016年4月14日,Google发布了分布式TensorFlow。Google的博文介绍了TensorFlow在图像分类的任务中,在100个GPUs和不到65小时的训练时间下,达到了78%的正确率。在激烈的商业竞争中,更快的训练速度是人工智能企业的核心竞争力。而分布式TensorFlow意味着它能够真正大规模进入到人工智能产业中,产生实质的影响。

开源后5个月,Google的深度学习系统都有哪些改变?

Google昨日发布分布式TensorFlow版本!

即便TensorFlow在2015年底才出现,它已经吸引了全球机器学习开发者的目光。Google创始人Eric Schmidt坚信TensorFlow是Google的未来。深度学习引擎+云服务平台,将会带来编程范式的改变:不仅给电脑编程,而且让电脑拥有一定的自主能力。

根据Github的数据统计,TensorFlow成为了2015年最受关注的六大开源项目之一。考虑到TensorFlow仅仅在12月才发布,一个月的时间就让它成为世界关注的焦点。

不过那时候的TensorFlow,还仅仅是只能在一个机器上运行的单机版本。这意味着它虽然设计精巧,但很难被公司、组织大规模的使用,也很难对产业造成实质的影响。

但昨天发布的分布式TensorFlow,最突出的特征是能够在不同的机器上同时运行。虽然说并不是所有人都需要在几千台服务器上运行TensorFlow,但研究者和创业公司的确能在多台机器运行的TensorFlow中获益。

TensorFlow技术负责人Rajat Monga解释了分布式TensorFlow的延期发布:“我们内部使用的软件栈(Software Stack),和外部人们使用的非常不同......所以要让它变得开源,对于我们来说是极其困难的事情。”

经过5个月的等待,分布式 TensorFlow 终于到来了。

TennsorFlow 0.8发布了,它有一些很好的改进。它为分布式的版本做了一些改变,而且把它们包裹起来使之更容易使用。这篇博客还介绍了用分布式系统训练卷积图像识别模型的一些可扩展的数字。

| Google 官方博客介绍

TensorFlow:

TensorFlow是为使用数据流程图的数值计算开发的开源软件库。图中的节点表示数学运算,而图的边代表着彼此沟通的多维数据阵列(Tensors)。在只使用单个API的情况下,灵活的架构可以让你在桌面、服务器或者移动设备的单个或多个CPUs和GPUs部署计算。TensorFlow最早由Google Brain团队的研究人员和工程师研发,目的是管理机器学习和深度神经网络的研究工作,但是这个系统也足够通用,适用于其他的应用领域。

开源后5个月,Google的深度学习系统都有哪些改变?

TensorFlow 0.8:支持分布式计算


开源后5个月,Google的深度学习系统都有哪些改变?

Google 在很多的产品中都使用了机器学习技术。为了不断改进我们的模型,最为重要的是训练速度要尽可能的快。要做到这一点,其中一个办法是在几百台机器中运行TensorFlow,这能够把部分模型的训练过程从数周缩短到几个小时,并且能够让我们在面对不断增加的规模和复杂性的模型时,也能够进行实验。自从我们开源了TensorFlow,分布式的版本就成为最需要的功能之一了。现在,你不需要再等待了。

今天(4月14日),我们很兴奋地推出了TensorFlow 0.8,它拥有分布式计算的支持,包括在你的基础设施上训练分布式模型的一切支持。分布式的TensorFlow由高性能的gRPC 库支持,也能够支持在几百台机器上并行训练。它补充了我们最近的公布的Google云机器学习,也能够使用Google云平台训练和服务你的TensorFlow模型。

为了和TensorFlow 0.8版本的推出保持一致,我们已经发表了一个“分布式训练”给TensorFlow模型库的生成图像分类的神经网络。使用分布式训练,我们训练了生成网络(Inception Network),在100个GPUs和不到65小时的训练时间下,达到了78%的正确率。即便是更小的集群,或者只是你桌子下面的几台机器,都可以受益于分布式的TensorFlow,因为增加了更多的 GPUs 提升了整体的吞吐量,并且更快生成准确的结构。

开源后5个月,Google的深度学习系统都有哪些改变?
图:TensorFlow 可以加快训练生成网络的速度,使用 100 个 GPUs 能达到 56 倍。来源:Google

分布式训练也支持你使用像Kubernetes这样的集群管理系统,以进行扩大规模的训练。更进一步说,一旦你已经训练了模型,就可以部署到产品并且加快在Kubernetes使用TensorFlow服务的推理速度。

除了分布式生成器,TensorFlow 0.8还发布了定义你自己分布式模型的新库。TensorFlow分布式架构允许很灵活的定义模型,因为集群中的每个进程都可以进行通用的计算。我们之前的系统DistBelief(像很多追随它的系统)使用特殊的“参数服务器”来管理共享的模型参数,其中的参数服务器有简单的读/写接口,以更新共享的参数。在TensorFlow中,所有的计算,包括参数的管理,都会在数据流的图中呈现,并且系统会把数据流映射到不同设备的可用处理器中(例如多核CPUs,一般用途的GPUs,手机处理器等)。为了让TensorFlow更好使用,我们也推出了Python的库,使之更容易写模型,在一个处理器中运行,并且扩展到使用多个副本以进行训练。

这种架构使得它可以更容易的扩大单进程的工作到集群中,同时还可以进行新颖的分布式训练架构的实验。举个例子,我的同事最近展示了“重新访问分布式同步 SGD”(Revisiting Distributed Synchronous SGD),在TensorFlow图部署,实现了在图像模型训练中更好的“时间-精度”。

目前支持分布式计算的TensorFlow版本还仅仅是个开始。我们将继续研究提高分布式训练表现的方法,既有通过工程的,也有通过算法的改进,我们也会在GitHub社区分享这些改进。

抢先尝试

开源后5个月,Google的深度学习系统都有哪些改变?

来源:TensorFlow

如果你想跳过复杂的按照过程,感受TensorFlow,Google提供了一个基于浏览器的模拟器,能让你感受基本的TensorFlow和深度学习。

首先在左边选择你要分析的数据,然后在中间选择和组合道具,最后看输出的结果是如何和最早的数据相匹配。最开始看起来会显得很可笑,但是这很好理解,而且能在抽象层面理解神经网络是如何运作的。

TensorFlow 更新历史

2016.4.13

Announcing TensorFlow 0.8 – now with distributed computing support!

2016.3.23

Machine Learning in the Cloud, with TensorFlow

2016.3.23

Scaling neural network image classification using Kubernetes with TensorFlow Serving
2016.3.9

Train your own image classifier with Inception in TensorFlow

2016.2.16

Running your models in production with TensorFlow Serving

2016.1.21

Teach Yourself Deep Learning with TensorFlow and Udacity

2015.12.7

How to Classify Images with TensorFlow

2015.11.9

Google’s latest machine learning system, open sourced for everyone

资料来源:Google

雷峰网原创文章,未经授权禁止转载。详情见转载须知

开源后5个月,Google的深度学习系统都有哪些改变?

分享:
相关文章

产业链媒体

「新智元」深度锁定人工智能及机器人产业链,关注产业前沿资讯,聚集学术和产业领袖,共同建构智能 + 产业的新纪元。
当月热门文章
最新文章
请填写申请人资料
姓名
电话
邮箱
微信号
作品链接
个人简介
为了您的账户安全,请验证邮箱
您的邮箱还未验证,完成可获20积分哟!
请验证您的邮箱
立即验证
完善账号信息
您的账号已经绑定,现在您可以设置密码以方便用邮箱登录
立即设置 以后再说