2015 年 11 月 9 日谷歌开源了人工智能平台 TensorFlow,同时成为 2015 年最受关注的开源项目之一。经历了从 v0.1 到 v0.12 的 12 个版本迭代后,谷歌于2017 年 2 月 15 日发布了 TensorFlow 1.0 版本,并同时在美国加州山景城举办了首届 TensorFlow Dev Summit 会议。 TensorFlow 1.0 及Dev Summit(2017)回顾 和以往版本相比,TensorFlow 1.0 的特性改进主要体现在以下几个方面: 速度更快:TensorFlow 1.0 版本采用了XLA的编译技术,改进了 TensorFlow 的运行性能及内存利用。从 Benchmark 问题的测试结果来看,对单机 Inception v3模型,实现了在单机8 GPUs上7.3倍的运算加速;对分布式Inception v3模型,实现了
RSVP'd
2015 年 11 月 9 日谷歌开源了人工智能平台 TensorFlow,同时成为 2015 年最受关注的开源项目之一。经历了从 v0.1 到 v0.12 的 12 个版本迭代后,谷歌于2017 年 2 月 15 日发布了 TensorFlow 1.0 版本,并同时在美国加州山景城举办了首届 TensorFlow Dev Summit 会议。
TensorFlow 1.0 及Dev Summit(2017)回顾
和以往版本相比,TensorFlow 1.0 的特性改进主要体现在以下几个方面:
速度更快:TensorFlow 1.0 版本采用了XLA的编译技术,改进了 TensorFlow 的运行性能及内存利用。从 Benchmark 问题的测试结果来看,对单机 Inception v3模型,实现了在单机8 GPUs上7.3倍的运算加速;对分布式Inception v3模型,实现了在多机64 GPUs上58倍的运算加速。
更加灵活:该版本除了支持tf.layers,tf.metrics及tf.losses模型的High-Level API外,实现了对keras(high-level neural networks library)API的全面兼容。
更产品化:TensorFlow Python API在v1.0版本中趋于稳定,为产品兼容性打下坚实基础。
在TensorFlow 1.0版本发布的当天,谷歌公司还举办了TensorFlow 2017 DEV Summit。该日程主要包括以下几个方面的主题演讲:
XLA (TensorFlow, Compiled)编译技术 :介绍采用XLA技术最小化图计算执行时间和最大化利用计算资源,用于减少数据训练和模型结果推断时间。
Hands-on TensorBoard可视化技术:介绍了如何使用TensorBoard,以及TensorFlow图模型、训练数据的可视化等。
TensorFlow High-Level API:介绍了使用Layers, Estimators, and Canned Estimators High-Level API定义训练模型。
Integrating Keras & TensorFlow: 介绍了如何在TensorFlow中使用Keras API进行模型定义及训练。
TensorFlow at DeepMind:介绍了在DeepMind中使用TensorFlow平台的典型案例,包括AlphaGo等应用。
Skin Cancer Image Classification:介绍了斯坦福医学院使用TensorFlow分类皮肤癌照片,用于医学诊断。
Mobile and Embedded TensorFlow:介绍了如何把TensorFlow模型运行在移动终端、嵌入式设备,包括安卓,iOS等系统。
Distributed TensorFlow:系统性地介绍了分布式TensorFlow的相关技术,以及如何应用于大规模模型训练。
TensorFlow Ecosystem:讲解了TensorFlow的生态系统,包括生成训练数据,分布式运行TensorFlow和serving models的产品化流程。
Serving Models in Production with TensorFlow Serving:系统性讲解了如何在生产环境中应用TensorFlow Serving模型。
ML Toolkit:介绍了TensorFlow的机器学习库,如线性回归,KMeans等算法模型的使用。
Sequence Models and the RNN API:介绍了如何构建高性能的sequence-to-sequence模型,以及相关API。
Wide & Deep Learning: 介绍了如何结合Wide模型和Deep模型构建综合训练模型。
Magenta,Music and Art Generation:使用增强型深度学习模型生成音乐声音和艺术图片。
Case Study,TensorFlow in Medicine - Retinal Imaging:使用TensorFlow机器学习平台对医学视网膜图片进行分类,辅助医学诊断。
TensorFlow系统架构
TensorFlow作为分布式机器学习平台,主要架构如下图所示。RPC和RDMA为网络层,主要负责传递神经网络算法参数。CPU和GPU为设备层,主要负责神经网络算法中具体的运算操作。Kernel为TensorFlow中算法操作的具体实现,如卷积操作,激活操作等。Distributed Master用于构建子图;切割子图为多个分片,不同的子图分片运行在不同的设备上;Master还负责分发子图分片到Executor/Work端。Executor/Work在设备(CPUs,GPUs,etc.)上,调度执行子图操作;并负责向其它Worker发送和接收图操作的运行结果。C API把TensorFlow分割为前端和后端,前端(Python/C++/Java Client)基于C API触发TensorFlow后端程序运行。Training libraries和Inference libs是模型训练和推导的库函数,为用户开发应用模型使用。
TensorFlow 开发者峰会汇集全球机器学习开发者,进行为期一天的技术内容分享、演示,与 TensorFlow 团队和社区成员一起交流。
很高兴地告诉大家,今年2018 TensorFlow DevSummit Viewing Party又要来了!
官网:https://www.tensorflow.org/dev-summit/
郑州GDG 会在 2018 年 4 月 1 号在通幽咖啡一起观看视频学习并动手实践 Tensorflow 相关的 CodeLabs。欢迎对人工智能,机器学习/Tensorflow感 兴趣的小伙伴们前来参加,并有神秘礼物相赠。
#GDG #TFDevSummit #TensorFlow
Contact Us