现在人工智能越来越火,也有很多的框架供大家选择,为什么推荐大家选tensorflow呢(因为他有一个很强的“亲爹”--Google),tensorflow的python接口,高移植性,灵活性,还有可视化(tensorboard),自动微分和求导与强大的社区等特点让他成为了现在最火热的人工智能框架,让大家对于复杂的网络也不用害怕了。最近看了很多关于神经网络和tensorflow的书和视频,这里就当自己做一下笔记了。下面进入正题。
安装直接使用pip就可以了:pip install tensorflow(如果是python3.x:pip3 install tensorflow)
首先对于tensorflow来说,最重要的概念就是Graph和Session
1.png
这就是一个Data Flow Graph,最核心的就是定义和计算不等于执行,一个模型跑起来只需要两步:先描述整幅图,然后在session中执行运算。
tensorflow==tensor + flow,tensor是张量,flow流动,可以理解为张量在图中通过上图所示里面的a,b,c,d,e这些运算(这里把他们叫做op)进行流动(传递和变换)。在tensorflow中,张量大家可以理解为一个n维的矩阵。
下面import tensorflow as tf 这是每一个tensorflow模型的第一行代码,导入tensorflow,接着我们执行一个加法运算并输出:
a=tf.add(3,5)
print a
Tensor("Add:0", shape=(), dtype=int32)
结果不是8,这是为什么呢?上面我们说过在tensorflow中定义计算和执行是分开的,要想得到8的结果就必须用session来执行运算
sess = tf.Session()
print sess.run(a)
sess.close()
首先初始化session,然后调用run()方法来执行定义的a 这个运算,这样我们就可以输出8这个结果。session在执行的时候会找到你让他执行的运算a的依赖,把依赖的节点都进行计算,不需要的节点则不用计算,这个等下我们会说到。那么现在回到刚刚直接输出的那个结果,因为这时a所保存的就是一个op,他有名字,形状,和参数类型,所以直接输出后就会得到一个描述的结果。
大家以前经常用io的应该知道,我们经常使用with open() as f:这种语句,这样不需要你去写close(),具体with语句什么原理就不说了,大家可以百度一下,那么我们推荐的session写法也是这种语句:
with tf.Session() as sess:
print sess.run(a)
接下来我们看一个稍微复杂一点的例子:
x = 2
y = 3
add_op = tf.add(x, y)
mul_op = tf.mul(x, y)
useless = tf.mul(x, add_op)
pow_op = tf.pow(add_op, mul_op)
with tf.Session() as sess:
z = sess.run(pow_op)
我们定义了4个op,add_op, mul_op, useless_op, pow_op,然后我们执行的时候选择执行pow_op,这样session就会去找到pow_op所依赖的其他op,然后都进行计算,所以上面只有useless_op不会执行计算,这也是tensorflow一个非常重要的地方,需要什么才执行什么,可以很大的提高效率并且由于各个op都是独立的运算,这也方便了分布式处理,比如把这个op用这个gpu处理,那个op用另一个gpu处理,使得极大的数据可以很好的进行分布式处理。当我们需要运行到几个计算节点时,我们可以将上面的最后一行代码调整为
z, not_useless = sess.run([pow_op, useless_op])
使用一个list来执行。
上面我们定义x = 2;y = 3,实际上我们定义常量通常使用constant()
a = tf.constant(2, name="a")
b = tf.constant(3, name="b")
x = tf.add(a, b, name="add")
这里的name是为了在tensorboard中方便查看,至于tensorboard下一次会详细介绍,这里先不说,其实就是整个模型的图表示。
tensorflow提供了很多operations来创建常量,比如tf.zeros ;tf.zeros_like ;tf.ones; tf.fill; tf.constant;还有创建Sequences的tf.linspace; tf.range等。另外还有随机常量:
tf.random_normal(shape, mean=0.0, stddev=1.0, dtype=tf.float32, seed=None, name=None)
tf.truncated_normal(shape, mean=0.0, stddev=1.0,
dtype=tf.float32,seed=None, name=None)
tf.random_uniform(shape, minval=0, maxval=None, dtype=tf.float32,seed=None, name=None)
tf.random_shuffle(value, seed=None, name=None) tf.random_crop(value, size, seed=None, name=None)
tf.multinomial(logits, num_samples, seed=None, name=None)
tf.random_gamma(shape, alpha, beta=None, dtype=tf.float32, seed=None, name=None)
这些就不一一详细介绍了,接下来就是变量:tf.constant是一个op,而tf.Variable是一个类
# create variable a with scalar value
a = tf.Variable(2, name="scalar")
# create variable b as a vector
b = tf.Variable([2, 3], name="vector")
# create variable c as a 2x2 matrix
c = tf.Variable([[0, 1], [2, 3]], name="matrix")
# create variable W as 784 x 10 tensor, filled with zeros W = tf.Variable(tf.zeros([784,10]))
变量在使用前一定要记得初始化,最简单的初始化全部变量方法:
init = tf.global_variables_initializer()
with tf.Session() as sess:
sess.run(init)
初始化一个变量子集:
init_ab = tf.variables_initializer([a, b], name="init_ab")
with tf.Session() as sess:
sess.run(init_ab)
初始化单个变量:
W = tf.Variable(tf.zeros([784,10]))
with tf.Session() as sess:
sess.run(W.initializer)
输出变量内容会用到Eval()函数:
# W 是一个700 x 100 随机变量
W = tf.Variable(tf.truncated_normal([700, 10]))
with tf.Session() as sess:
sess.run(W.initializer)
print W
print W.eval()
>> Tensor("Variable/read:0", shape=(700, 10),
dtype=float32)
>> [[-0.76781619 -0.67020458......
下面我们介绍 placeholder:
通过placeholder可以存放用于训练的数据
tf.placeholder(dtype, shape = None, name = None)
我们直接通过例子进行介绍:
# create a placeholder of type float 32-bit, shape is a vector of 3 elements
a = tf.placeholder(tf.float32, shape=[3])
# create a constant of type float 32-bit, shape is a vector of 3 elements
b = tf.constant([5, 5, 5], tf.float32)
# use the placeholder as you would a constant or a variable
c=a+b #Shortfortf.add(a,b)
with tf.Session() as sess:
print sess.run(c)
上面这段程序会报错:# Error because a doesn’t have any value 对于a我们没有给任何数据,我们将代码修改为:
# create a placeholder of type float 32-bit, shape is a vector of 3 elements
a = tf.placeholder(tf.float32, shape=[3])
# create a constant of type float 32-bit, shape is a vector of 3 elements
b = tf.constant([5, 5, 5], tf.float32)
# use the placeholder as you would a constant or a variable
c=a+b #Shortfortf.add(a,b)
with tf.Session() as sess:
# feed [1, 2, 3] to placeholder a via the dict {a: [1, 2, 3]}
print sess.run(c, {a: [1, 2, 3]})
# the tensor a is the key, not the string ‘a’
# >> [6, 7, 8]
我们通过字典的形式将数据传给placeholder,这是tensorflow中最普遍的方式
下面我们在看一个例子:先创建两个op
a = tf.add(2, 5)
b = tf.mul(a, 3)
然后创建一个replace_dict来修改a的值:
with tf.Session() as sess:
# define a dictionary that says to replace the value of 'a' with 15
replace_dict = {a: 15}
# Run the session, passing in 'replace_dict' as the value to 'feed_dict'
sess.run(b, feed_dict=replace_dict)
# returns 45
feed_dict是tensorflow中用于喂数据的方法,都以字典形式存入,就像上面这一段代码,feed_dict={a:15},那么就把b这个op中的a的值赋值为15。
回顾一下,介绍了关于tensorflow的一些很基本的东西,但是核心思想很重,就是以图的形式来表示模型,然后表示和执行计算分隔开,下一篇我会介绍如何用tensor flow从零开始搭建起一个模型,比如简单的线性模型,还有经典的手写数字识别等。所写的难免有一些小错误,希望大家指正。
网友评论