谷歌发布 TensorFlow 1.6.0,针对 CUDA 9.0 和 cuDNN 7 预构建二进制文件
雷锋网 (公众号:雷锋网) AI 研习社消息:日前,谷歌发布 TensorFlow 1.6.0 正式版,带来了多项更新和优化,雷锋网 AI 研习社将谷歌官方介绍编译如下:
重大改进:
-
针对 CUDA 9.0 和 cuDNN 7 预构建二进制文件;
-
预构建的二进制文件将使用 AVX 指令,这可能会破环较老的 CPU 上的 TF。
主要的特征和改进
-
针对非插槽变量的新优化器内部 API;
-
现在 tf.estimator.{FinalExporter,LatestExporter} 可以导出剥离的 SavedModels,这增加了 SavedModels 的前向兼容性;
-
FFT 支持添加到 XLA CPU / GPU;
-
Android TF 现在可以在兼容的 Tegra 设备上使用 CUDA 加速来构建(更多信息,请参阅 contrib / makefile / README.md)。
Bug 修复和其他改进:
文件更新:
-
增加了 Getting Started 的第二个版本,主要针对机器学习新手;
-
阐明了 resize_images.align_corners 参数文档;
-
增加了 TPU 文档。
谷歌云存储(GCS)
-
增加了客户端节流;
-
在 FileSystem 接口上增加了 FlushCaches() 方法,用于 GscFileSystem 实现。
其他:
-
增加了 tf.contrib.distributions.Kumaraswamy;
-
RetryingFileSystem::FlushCaches() 可调用基础 FileSystem 的FlushCahes();
-
将 auto_correlation 添加到了 distribution;
-
增加了 tf.contrib.distributions.Autoregressive;
-
增加了 SeparableConv1D layer;
-
增加了卷积 Flipout layer;
-
当 tf.matmul 的两输入都是 bfloat16 时,它将返回 bfloat16,而不是 float32;
-
增加了 tf.contrib.image.connected_components;
-
增加了可让原子变量访问的 tf.contrib.framework.CriticalSection;
-
分类任务的树预测上输出变化;
-
对于 pt 和 eval 指令,可允许张量值以 numpy 文件写入 filesystem;
-
gRPC:传播截断的错误(而不是返回 gRPC 内部的错误);
-
增加 parallel_interleave 来支持两种预取;
-
改进了 XLA 对 C64-related ops log, pow, atan2, tanh 的支持;
-
增加了概率卷积层。
API 改变
-
将 prepare_variance 布尔值默认设置为 false,方便后向兼容;
-
将 layers_dense_variational_impl.py 移至 layers_dense_variational.py。
详细的更新信息请查看 TensorFlow 的 Github 页面:
https://github.com/tensorflow/tensorflow/releases 。
雷锋网 AI 研习社编辑整理。
。