200字范文,内容丰富有趣,生活中的好帮手!
200字范文 > tensorflow对应的numpy版本_版本更新 | TensorFlow 2.4.0 候选版本发布

tensorflow对应的numpy版本_版本更新 | TensorFlow 2.4.0 候选版本发布

时间:2019-03-28 02:50:23

相关推荐

tensorflow对应的numpy版本_版本更新 | TensorFlow 2.4.0 候选版本发布

主要功能改进

tf.distribution 通过 tf.distribution.experimental.ParameterServerStrategy API 引入了对 Keras 模型异步训练实验性支持。更多细节请参见下文。MultiWorkerMirroredStrategy 不再是一个实验性 API,现在已进入稳定版本。针对命令执行失败和其他错误进行了修复。请查看具体教程,了解如何使用 Keras 进行多任务并行训练。对 tf.experimental.numpy 的新模块进行了实验性支持,此 API 不仅与 NumPy 兼容,更便于编写 TF 程序,可参阅详细指南了解更多信息,更多细节请参见下文。针对 Ampere 架构的 GPU 添加了 TensorFlow-32(简称TF32) 的支持,这是一种基于 Nvidia Ampere 的GPU模式,默认情况下将启用。Keras Functional API 的内部重构已经完成,这次重构提高了构建 Functional 模型的可靠性、稳定性和性能。Keras 混合精度训练的 API tf.keras.mixed_precision 已稳定,不再为实验性支持。这允许在训练过程中使用 16 位浮点数格式,在 GPU 上的性能提升高达 3 倍,在 TPU 的提升也高达 60 %。TF Profiler 现在支持使用采样模式 API ,对多个工作进程进行性能分析。TFLite Profiler Android 版本现已推出。请参阅指南以了解更多信息。TensorFlow pip 安装包现已使用 CUDA11 和 cuDNN 8.0.2构建。

重大改进

TF Core

C-API 的字符串张量的字节布局已被更新,已与 TF Core/C++ 匹配,即 tensorflow::tstring/TF_TString 的连续数组。C-API 函数 TF_StringDecode、TF_StringEncode 和 TF_StringEncodedSize 不再被使用,现已移除;关于 C 语言中的字符串访问/修改,请参见core/platform/ctstring.h。tensorflow.python、tensorflow.core和piler 模块现在被隐藏。这些模块不再是 TensorFlow 可访问 API 的一部分。tf.raw_ops.Max 和 tf.raw_ops.Min 不再接受类型为plex64 或 plex128 的输入,因为这些操作对于复杂类型的行为没有被明确定义。由于使用了 TensorFloat-32,某些 float32 操作在基于 Ampere 架构的 GPU 上以较低的精度运行,包括乘法和卷积。具体来说,这类运算的输入从 23 位精度四舍五入到 10 位。这对于深度学习模型来说,在实践中不太会造成问题。但在某些情况下,TensorFloat-32 (单精度浮点数值)也被用于 complex64 操作。可以通过调用config.experimental.enable_tensor_float_32_execution(False) 来禁用 TensorFloat-32 。默认情况下,XLA:CPU 和 XLA:GPU 设备不再注册。如果你真的需要它们,请使用 TF_XLA_FLAGS=--tf_xla_enable_xla_devices,但该标志位也将在后续版本中删除。

tf.keras:

compile() 中的 steps_per_execution 参数已稳定,不再为实验性支持,如果您传递的是experimental_steps_per_execution,请在你的代码中重新命名为 steps_per_execution 。这个参数控制了在调用 fit() 时,每次调用 tf.function 时要运行的批次数量。在单次 tf.function 调用中运行多个批次可以极大地提高在 TPU 中或带有大量 Python 计算的小型模型的性能。对 Keras Functional API 内部的重大重构可能会影响到以下代码:在检查 Keras 符号输入/输出时,使用isinstance(x, tf.Tensor) 而不是 tf.is_tensor的代码,应该改用 tf.is_tensor。过分依赖符号张量所附加的确切名称的代码(例如,假设输入的结尾为":0",将名称作为唯一的标识符,而不是使用tensor.ref() 等)。使用 get_concrete_function 直接跟踪 Keras 符号输入的代码,应该改成直接构建匹配的tf.TensorSpecs 并跟踪TensorSpec对象。依赖于 TensorFlow 操作转换为操作层后所对应的确切数量和名称的代码,可能需要更改。使用了tf.map_fn/tf.cond/tf.while_loop/control flow 作为操作层的代码,且碰巧能在 TF 2.4 之前的版本工作的代码。现在将明确地不支持这些功能。在 TF 2.4 之前,将这些操作转换为 Functional API 操作层是不可靠的,而且容易出现难以理解或无法定位的错误。直接对 Keras 符号值进行断言操作的代码,如 tf.rank 这样可根据输入是静态值或符号值而返回对应的类型的操作,现在这些操作将统一返回符号值。能够直接泄露张量到计算图以外的代码,在这个版本中将更易于导致泄露。尝试直接计算 Keras 符号输入/输出的梯度的代码。现在可以使用 GradientTape ,来代替传递给已构建模型的实际张量。需要通过转换后的操作层进行非常复杂的形状操作才能工作的代码。Keras 符号形状推理被证明是不够的。试图手动逐层遍历 tf.keras.Model 的代码。它假设层中只有一个位置参数。单这个假设在 TF 2.4 之前也不成立,新版本中更容易引起问题。在构建模型之前需要手动输入 keras.backend.get_graph() 的代码,现在已经不需要这么做了。在调用 Functional API Keras 模型一开始便强制进行输入形状假释的代码。这可能对一些用户造成影响,如 在 Functional 模型中创建 Input 对象时使用的形状与传递给该模型的数据的形状不匹配时。您可以通过使用正确形状的数据调用模型,或者通过放宽 Input 形状假设来解决不匹配的问题(您可以将 shape 属性设为 None ,将此作为轴(axis)以表示这是动态的),您也可以通过设置 model.input_spec = None 来完全禁止输入检查。

tf.data:

tf.data.experimental.service.DispatchServer 现在采用配置元组而不是单个参数。用法更新为 tf.data.experimental.service.DispatchServer(dispatcher_config)。tf.data.experimental.service.WorkerServer 现在采用配置元组,而不是单个参数。用法更新为 tf.data.experimental.service.WorkerServer(worker_config)。

tf.distribute:

移除 tf.distribution.Strategy.experimental_make_numpy_dataset。请使用 tf.data.Dataset.from_tensor_slices 来代替。将 tf.distribut.StrategyExtended.reduce_to、tf.distribut.StrategyExtended.batch_reduce_to、tf.distribut.ReplicaContext.all_reduce 中的 experimental_hints 重命名为 options。将 tf.distribution.experimental.CollectiveHints 重命名为 tf.municationOptions。将 tf.distribution.experimental.CollectiveCommunication 重命名为 tf.municationImplementation。将 tf.distribut.Strategy.experimental_distribute_datasets_from_function 重命名为 distribute_datasets_from_function,因为它不仅支持实验环境。删除了 tf.distribut.Strategy.experimental_run_v2 方法,该方法在 TF 2.2 中已被废弃。

tf.lite:

引入了 tf.quantization.quantize_and_dequantize_v2,它更新了超过范围的量化的梯度定义。要模拟 tf.quantization.quantize_and_dequantize(...)的 V1 行为,使用tf.grad_pass_through(tf.quantization.quantize_and_dequantize_v2)(...)。

如果您想详细了解本文提及的相关内容,请参阅以下文档。这些文档深入探讨了这篇文章中提及的许多主题:

使用 Keras 进行多任务并行训练/tutorials/distribute/multi_worker_with_kerastf.experimental.numpy/api_docs/python/tf/experimental/numpy详细指南/guide/tf_numpytf.keras.mixed_precision/api_docs/python/tf/keras/mixed_precision?version=nightly采样模式 API/guide/profiler#profiling_apis指南/lite/performance/measurement#trace_tensorflow_lite_internals_in_androidTensorFloat-32/blog//05/14/tensorfloat-32-precision-format/

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。