谷歌发布 TensorFlow 1.6.0,针对 CUDA 9.0 和 cuDNN 7 预构建二进制文件

雷锋网  •  扫码分享
我是创始人李岩:很抱歉!给自己产品做个广告,点击进来看看。  

雷锋网 (公众号:雷锋网) AI 研习社消息:日前,谷歌发布 TensorFlow 1.6.0 正式版,带来了多项更新和优化,雷锋网 AI 研习社将谷歌官方介绍编译如下:

谷歌发布 TensorFlow 1.6.0,针对 CUDA 9.0 和 cuDNN 7 预构建二进制文件

重大改进:

  • 针对 CUDA 9.0 和 cuDNN 7 预构建二进制文件;

  • 预构建的二进制文件将使用 AVX 指令,这可能会破环较老的 CPU 上的 TF。

主要的特征和改进

  • 针对非插槽变量的新优化器内部 API;

  • 现在 tf.estimator.{FinalExporter,LatestExporter} 可以导出剥离的 SavedModels,这增加了 SavedModels 的前向兼容性;

  • FFT 支持添加到 XLA CPU / GPU;

  • Android TF 现在可以在兼容的 Tegra 设备上使用 CUDA 加速来构建(更多信息,请参阅 contrib / makefile / README.md)。

Bug 修复和其他改进:

文件更新:

  • 增加了 Getting Started 的第二个版本,主要针对机器学习新手;

  • 阐明了 resize_images.align_corners 参数文档;

  • 增加了 TPU 文档。

谷歌云存储(GCS)

  • 增加了客户端节流;

  • 在 FileSystem 接口上增加了 FlushCaches() 方法,用于 GscFileSystem 实现。

其他:

  • 增加了 tf.contrib.distributions.Kumaraswamy;

  • RetryingFileSystem::FlushCaches() 可调用基础 FileSystem 的FlushCahes();

  • 将 auto_correlation 添加到了 distribution;

  • 增加了 tf.contrib.distributions.Autoregressive;

  • 增加了 SeparableConv1D layer;

  • 增加了卷积 Flipout layer;

  • 当 tf.matmul 的两输入都是 bfloat16 时,它将返回 bfloat16,而不是 float32;

  • 增加了 tf.contrib.image.connected_components;

  • 增加了可让原子变量访问的 tf.contrib.framework.CriticalSection;

  • 分类任务的树预测上输出变化;

  • 对于 pt 和 eval 指令,可允许张量值以 numpy 文件写入 filesystem;

  • gRPC:传播截断的错误(而不是返回 gRPC 内部的错误);

  • 增加 parallel_interleave 来支持两种预取;

  • 改进了 XLA 对 C64-related ops log, pow, atan2, tanh 的支持;

  • 增加了概率卷积层。

API 改变

  • 将 prepare_variance 布尔值默认设置为 false,方便后向兼容;

  • 将 layers_dense_variational_impl.py 移至 layers_dense_variational.py。

详细的更新信息请查看 TensorFlow 的 Github 页面:

https://github.com/tensorflow/tensorflow/releases 。

雷锋网 AI 研习社编辑整理。

谷歌发布 TensorFlow 1.6.0,针对 CUDA 9.0 和 cuDNN 7 预构建二进制文件

随意打赏

tensorflow gputensorflow教程谷歌新品发布会二进制文件谷歌发布会谷歌发布
提交建议
微信扫一扫,分享给好友吧。