TensorFlow 2.0到来,这是一个用于机器学习的开源库

tf_标志

几天前 提出了一个新版本 机器学习平台的重要 TensorFlow 2.0,提供各种深度机器学习算法的即用型实现, 用于在Python中构建模型的简单编程接口和用于C ++的低级接口,可用于控制计算图形的构建和执行。

该平台 最初由Google Brain团队开发,并由Google服务使用 用于语音识别,照片中的面部识别,确定图像的相似性,在Gmail中过滤垃圾邮件,在Google新闻中选择新闻并根据含义组织翻译。

TensorFlow提供了计算机算法库 通过数据流程图实现的即用型数字。 此类图中的节点实现数学运算或入口/出口点,而图中的边缘表示在节点之间流动的多维数据集(张量)。

可以将节点分配给计算设备并异步运行,同时同时处理所有合适的张量,从而使您可以类似于在大脑中同时触发神经元来组织神经网络中节点的同时操作。

分布式机器学习系统可以建立在标准设备上,这得益于TensorFlow的内置支持,可将计算扩展到多个CPU或GPU。 TensorFlow可以在多个CPU和GPU上运行(具有可选的CUDA扩展,用于在图形处理单元上进行通用计算)

TensorFlow在64位Linux,macOS和包括Android和iOS的移动平台上可用。 系统代码用C ++和Python编写,并在Apache许可下分发。

TensorFlow 2.0的主要新功能

随着此新版本的发布,主要注意事项 简化和易于使用,例如建立和训练模型的情况, 提出了新的高级Keras API 它为构建模型(顺序,功能,子类)的接口提供了多个选项,可以立即执行模型(无需初步编译),并具有简单的调试机制。

添加了tf.distribute.Strategy API来组织分布式模型培训只需对现有代码进行最少的修改。 除了能够将计算分布到多个GPU之外,还提供实验性支持,可用于跨多个独立处理器拆分学习过程,并具有使用云TPU(张量处理单元)的能力。

代替编写通过tf.Session执行的声明式图形构造模型,可以编写通用的Python函数,这些函数可以通过调用tf.function转换为图形,然后进行远程执行,序列化或优化以提高性能。

已添加 AutoGraph转换器,可将Python命令流转换为TensorFlow表达式,它允许您在tf.function,tf.data,tf.distribute和tf.keras函数中使用Python代码。

SavedModel统一了模型交换格式,并增加了对保存和恢复模型状态的支持。 TensorFlow的组合模型现在可以在TensorFlow Lite(在移动设备上),TensorFlow JS(在浏览器或Node.js中),TensorFlow Serving和TensorFlow Hub中使用。

tf.train.Optimizers和tf.keras.Optimizers API已统一, 代替compute_gradients,已经提出了一个新的GradientTape类来计算梯度。

此外,使用GPU时,此新版本的性能也显着提高。 在配备NVIDIA Volta和Turing GPU的系统上进行模型训练的速度提高了三倍。

许多清理API,重命名或删除了许多调用,中断了对助手方法中的全局变量的支持。 提出了一个新的absl-py API,而不是tf.app,tf.flags,tf.logging。 为了继续使用旧的API,已经准备了compat.v1模块。

如果您想了解更多信息,可以咨询 以下链接。


发表您的评论

您的电子邮件地址将不会被发表。 必填字段标有 *

*

*

  1. 负责数据:MiguelÁngelGatón
  2. 数据用途:控制垃圾邮件,注释管理。
  3. 合法性:您的同意
  4. 数据通讯:除非有法律义务,否则不会将数据传达给第三方。
  5. 数据存储:Occentus Networks(EU)托管的数据库
  6. 权利:您可以随时限制,恢复和删除您的信息。