美文网首页
TensorFlow入门极简教程(四):Vector

TensorFlow入门极简教程(四):Vector

作者: Bobby0322 | 来源:发表于2019-03-04 17:04 被阅读0次

向量

向量在编程语言中就是最常用的一维数组(Vector)。
二维数组叫做矩阵(Matrix),三维以上叫做张量(Tensor)。

向量虽然简单,高效,且容易理解。但是与操作0维的标量数据毕竟还是不同的。比如向量经常用于表示一个序列,生成序列像标量一样一个一个手工写就不划算了。当然可以用循环来写。在向量中这样还好,如果是在矩阵或者是张量中就强烈建议不要用循环来做了。系统提供的函数一般都是经过高度优化的,而且可以使用GPU资源来进行加速。
我们一方面尽可能地多使用系统的函数,另一方面也不要迷信它们,代码优化是一个实践的过程,可以实际比较测量一下。

快速生成向量的方法

range函数生成等差数列

tf.range函数用来快速生成一个等差数列。相当于之前我们讲numpy时的np.arange函数。
原型:

tf.range(start, limit, delta=1, dtype=None, name='range')

例:

b11 = tf.range(1,100,1)
print(b11)
print(sess.run(b11))

Tensor("range:0", shape=(99,), dtype=int32)
[ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24
25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48
49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72
73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96
97 98 99]

linspace生成浮点等差数组

tf.linspace与tf.range的区别在于,数据类型不同。

tf.lin_space(start, stop, num, name=None)

其中,start和stop必须是浮点数,且类型必须相同。num必须是整数。

例:

a2 = tf.linspace(1.0,10.0,4)
print(a2)
print(sess.run(a2))

Tensor("LinSpace:0", shape=(4,), dtype=float32)
[ 1. 4. 7. 10.]

拼瓷砖

就是将一段向量重复若干次。

a10 = tf.range(1,4,1)
print(a10)
print(sess.run(a10))

a11 = tf.tile(a10,[3])
print(a11)
print(sess.run(a11))

Tensor("range_1:0", shape=(3,), dtype=int32)
[1 2 3]
Tensor("Tile:0", shape=(9,), dtype=int32)
[1 2 3 1 2 3 1 2 3]

向量操作

将向量反序

可以使用tf.reverse函数。
原型:

tf.reverse( tensor, axis, name=None)

tensor是向量,axis轴对于向量不重要,给个[-1]就可以了。折腾轴是张量时间的事情,暂时还用不到。

a2 = tf.linspace(1.0,10.0,4)
print(sess.run(a2))

a3 = tf.reverse(a2,[-1])
print(sess.run(a3))

[ 1. 4. 7. 10.]
[10. 7. 4. 1.]

切片

切片也是向量的常用操作之一,就是取数组的一部分。

例:

a5 = tf.linspace(1.0,100.0, 10)
print(sess.run(a5))

a6 = tf.slice(a5, [2],[4])
print(sess.run(a6))

[ 1. 12. 23. 34. 45. 56. 67. 78. 89. 100.]
[23. 34. 45. 56.]

将来处理张量时,我们从一个矩阵切一块,或从一个张量中切一块,就好玩得多了。但是原理跟向量上是一样的。

连接

tf.concat也是需要给定轴信息的。对于两个线性的向量,我们给0或者-1就好。

a20 = tf.linspace(1.0,2.0,10)
print(sess.run(a20))

a21 = tf.linspace(2.0,3.0,5)
print(sess.run(a21))

a23 = tf.concat([a20,a21],-1)
print(sess.run(a23))

[1. 1.1111112 1.2222222 1.3333334 1.4444444 1.5555556 1.6666667
1.7777778 1.8888888 2. ]
[2. 2.25 2.5 2.75 3. ]
[1. 1.1111112 1.2222222 1.3333334 1.4444444 1.5555556 1.6666667
1.7777778 1.8888888 2. 2. 2.25 2.5 2.75 3. ]

向量计算

向量加减法

同样长度的向量之间可以进行加减操作。
例:

a40 = tf.constant([1,1])
a41 = tf.constant([2,2])
a42 = a40 + a41
print(sess.run(a42))

a43 = a40 - a41
print(a43)
print(sess.run(a43))

[3 3]
Tensor("sub:0", shape=(2,), dtype=int32)
[-1 -1]

向量乘除标量

向量乘除标量也非常好理解,就是针对向量中的每个数都做乘除法。
例:

a44 = a40 * 2
print(sess.run(a44))

a45 = a44 / 2
print(sess.run(a45))

print(a44)
print(a45)

[2 2]
[1. 1.]
Tensor("mul:0", shape=(2,), dtype=int32)
Tensor("truediv:0", shape=(2,), dtype=float64)

广播运算

如果针对向量和标量进行加减运算,也是会对向量中的每个数进行加减运算。这种操作称为广播操作。

例:

a46 = a40 + 1
print(sess.run(a46))
print(a46)

[2 2]
Tensor("add_1:0", shape=(2,), dtype=int32)

向量乘法

两个向量相乘,默认的运算是求元素对应乘积(element-wise product),也叫做Hadamard积。

例:

b1 = tf.constant([1, 2])
b2 = tf.constant([2, 1])
b3 = b1 * b2
print(b3)
print(sess.run(b3))

Tensor("mul_1:0", shape=(2,), dtype=int32)
[2 2]

直接调用tf.multiply也是同样的效果,例:

b4 = tf.multiply(b1,b2)
print(b4)
print(sess.run(b4))

Tensor("Mul_2:0", shape=(2,), dtype=int32)
[2 2]

如果要计算点积(dot product)的话,我们得提前剧透一下矩阵的内容了。
首先,用向量是没法做矩阵计算的。
例:

a21 = tf.constant([2,3])
a22 = tf.constant([4,5])
print(a21)
print(a22)

Tensor("Const_8:0", shape=(2,), dtype=int32)
Tensor("Const_9:0", shape=(2,), dtype=int32)

这样(2,)的形状是向量,我们得先把它转换成(2,1)这样的单行矩阵,如下:

a31 = tf.constant(sess.run(tf.reshape(a21,[2,1])))
a32 = tf.constant(sess.run(tf.reshape(a22,[2,1])))

print(a31)
print(a32)

Tensor("Const_10:0", shape=(2, 1), dtype=int32)
Tensor("Const_11:0", shape=(2, 1), dtype=int32)

下面我们终于可以计算点积了,我们知道点积A.B相当于A的转置乘以B,我们可以通过matmul函数来进行矩阵乘法。

a31 = tf.matmul(a31,a32,transpose_a=True)
print(sess.run(a31)) # 也就是2*4+3*5=23

[[23]]

我们也可以用tf.tensordot函数来计算点积。我们刚才为什么没用呢?答案是tensordot要求是浮点型矩阵。
例:
第一步,需要浮点数:

f01 = tf.constant([1,1],dtype=tf.float32)
f02 = tf.constant([1,2],dtype=tf.float32)

第二步,reshape成单行矩阵:

f11 = tf.constant(sess.run(tf.reshape(f01,[2,1])))
f12 = tf.constant(sess.run(tf.reshape(f02,[2,1])))
print(f11)
print(f12)

Tensor("Const_14:0", shape=(2, 1), dtype=float32)
Tensor("Const_15:0", shape=(2, 1), dtype=float32)

第三步,调用tensordot

f13 = tf.tensordot(f11,f12,2)
print(sess.run(f13))

3.0

小结

从上面我们学习的函数我们可以看到,与普通语言中提供的函数多是为一维数组操作不同,Tensorflow中的切片、拼接等操作也是基于张量的。
当我们后面学到张量遇到困难时,不妨回来看下这一节。不管后面张量多么复杂,其实也只是从一维向二维和多维推广而己。

相关文章

网友评论

      本文标题:TensorFlow入门极简教程(四):Vector

      本文链接:https://www.haomeiwen.com/subject/mfwiuqtx.html