美文网首页
6、python教程进阶:tensorflow教程

6、python教程进阶:tensorflow教程

作者: 是黄小胖呀 | 来源:发表于2020-12-02 23:53 被阅读0次

tensorflow教程

一、基本概念:张量、计算图、自动微分

1、张量

1)结构操作

创建、索引切片,维度变换,合并分割

x=tf.Variable([[1,2],[3,4]],dtype=tf.float32)

a=tf.random.uniform([5],minval=0,maxval=10)\b=tf.random.normal([3,3],mean=0.0,stddev=1.0)

tf.gather

tf.reshape

tf.concat\tf.stack\tf.split

2)数学运算

标量运算,向量运算,矩阵运算。

标量运算:加减乘除乘方,以及三角函数,指数,对数等常见函数,逻辑比较运算符等都是标量运算符。

标量运算符的特点是对张量实施逐元素运算。

向量运算:向量运算符只在一个特定轴上运算,将一个向量映射到一个标量或者另外一个向量。 许多向量运算符都以reduce开头。

#tf.math.top_k可以用于对张量排序

a=tf.constant([1,3,7,5,4,8])

values,indices=tf.math.top_k(a,3,sorted=True)

tf.print(values)

tf.print(indices)

矩阵运算:矩阵必须是二维的。类似tf.constant([1,2,3])这样的不是矩阵。

矩阵运算包括:矩阵乘法,矩阵转置,矩阵逆,矩阵求迹,矩阵范数,矩阵行列式,矩阵求特征值,矩阵分解等运算。

#矩阵乘法

a=tf.constant([[1,2],[3,4]])

b=tf.constant([[2,0],[0,2]])

a@b

#等价于tf.matmul(a,b)除了一些常用的运算外,大部分和矩阵有关的运算都在tf.linalg子包中。

广播机制:

TensorFlow的广播规则和numpy是一样的:

如果张量的维度不同,将维度较小的张量进行扩展,直到两个张量的维度都一样。

如果两个张量在某个维度上的长度是相同的,或者其中一个张量在该维度上的长度为1,那么我们就说这两个张量在该维度上是相容的。

如果两个张量在所有维度上都是相容的,它们就能使用广播。

广播之后,每个维度的长度将取两个张量在该维度长度的较大值。

在任何一个维度上,如果一个张量的长度为1,另一个张量长度大于1,那么在该维度上,就好像是对第一个张量进行了复制。

tf.broadcast_to 以显式的方式按照广播机制扩展张量的维度。

example1:

a=tf.constant([1,2,3])

b=tf.constant([[0,0,0],[1,1,1],[2,2,2]])

b+a

#等价于 b + tf.broadcast_to(a,b.shape)

<tf.Tensor: shape=(3, 3), dtype=int32, numpy=

array([[1, 2, 3],

      [2, 3, 4],

      [3, 4, 5]], dtype=int32)>

example2:

#计算广播后计算结果的形状,动态形状,Tensor类型参数

c=tf.constant([1,2,3])

d=tf.constant([[1],[2],[3]])

tf.broadcast_dynamic_shape(tf.shape(c),tf.shape(d))

c+d#等价于 tf.broadcast_to(c,[3,3]) + tf.broadcast_to(d,[3,3])

<tf.Tensor: shape=(3, 3), dtype=int32, numpy=

array([[2, 3, 4],

      [3, 4, 5],

      [4, 5, 6]], dtype=int32)>

2、计算图

有三种计算图的构建方式:静态计算图,动态计算图,以及Autograph。

TensorFlow 2.0主要使用的是动态计算图和Autograph。

动态计算图易于调试,编码效率较高,但执行效率偏低。

静态计算图执行效率很高,但较难调试。

而Autograph机制可以将动态图转换成静态计算图,兼收执行效率和编码效率之利。

当然Autograph机制能够转换的代码并不是没有任何约束的,有一些编码规范需要遵循,否则可能会转换失败或者不符合预期。

我们将着重介绍Autograph的编码规范和Autograph转换成静态图的原理。

并介绍使用tf.Module来更好地构建Autograph。

本篇我们介绍使用Autograph的编码规范。

一,Autograph编码规范总结

1,被@tf.function修饰的函数应尽可能使用TensorFlow中的函数而不是Python中的其他函数。例如使用tf.print而不是print,使用tf.range而不是range,使用tf.constant(True)而不是True.

2,避免在@tf.function修饰的函数内部定义tf.Variable.

3,被@tf.function修饰的函数不可修改该函数外部的Python列表或字典等数据结构变量。

二,Autograph的机制原理???

当我们第一次调用这个被@tf.function装饰的函数时,第一件事情是创建计算图。即创建一个静态计算图,跟踪执行一遍函数体中的Python代码,确定各个变量的Tensor类型,并根据执行顺序将算子添加到计算图中。 在这个过程中,如果开启了autograph=True(默认开启),会将Python控制流转换成TensorFlow图内控制流。

三,Autograph和tf.Module概述???

前面在介绍Autograph的编码规范时提到构建Autograph时应该避免在@tf.function修饰的函数内部定义tf.Variable.

但是如果在函数外部定义tf.Variable的话,又会显得这个函数有外部变量依赖,封装不够完美。

一种简单的思路是定义一个类,并将相关的tf.Variable创建放在类的初始化方法中。而将函数的逻辑放在其他方法中。

这样一顿猛如虎的操作之后,我们会觉得一切都如同人法地地法天天法道道法自然般的自然。

惊喜的是,TensorFlow提供了一个基类tf.Module,通过继承它构建子类,我们不仅可以获得以上的自然而然,而且可以非常方便地管理变量,还可以非常方便地管理它引用的其它Module,最重要的是,我们能够利用tf.saved_model保存模型并实现跨平台部署使用。

实际上,tf.keras.models.Model,tf.keras.layers.Layer 都是继承自tf.Module的,提供了方便的变量管理和所引用的子模块管理的功能。

因此,利用tf.Module提供的封装,再结合TensoFlow丰富的低阶API,实际上我们能够基于TensorFlow开发任意机器学习模型(而非仅仅是神经网络模型),并实现跨平台部署使用。

参考资料:https://www.kesci.com/home/column/5d8ef3c3037db3002d3aa3a0(30天吃掉那只TensorFlow2.0)

分享

相关文章

网友评论

      本文标题:6、python教程进阶:tensorflow教程

      本文链接:https://www.haomeiwen.com/subject/jmspwktx.html