在配置好tensorflow环境之后,终于要开始第一个tensorflow项目了,在这里,我展示一个简单的神经网络来对一个满足一元二次函数的原始数据进行拟合。
这个代码是参考书籍tensorflow技术解析与实践
在此基础上,我做了比较全面的解释
下面是代码
import tensorflow as tf
import numpy as np
#在-1到1区间等差产生300个数据点,然后转换为1行300列的矩阵形式#
x_data = np.linspace(-1, 1, 300)[:, np.newaxis]
#产生一些噪点然后形式和x_data一样,数据的均值为0,方差为0.05
noise = np.random.normal(0, 0.05, x_data.shape)
#创建y_data,形式为x^2+1+noise,添加噪点使得数据更加的离散
y_data = np.square(x_data) + 1 + noise
#创建xs,ys,在这里要使用tf.placeholder()先把位置占上,因为tensorflow是符号式计算,要先把网络建立好,然后在计算时再填充数据
xs = tf.placeholder(tf.float32, [None, 1])
ys = tf.placeholder(tf.float32, [None, 1])
#在这个例子中,我打算创建一个两层的神经网络,包括一个隐藏层和一个输出层
#现在定义一个add_layer
def add_layer (inputs, in_size, out_size, activation_function=None):
#定义神经层中的参数为weights和biases,这里定义它们的类型为tf.Variable,它们在计算图中有固定的位置,不会像张量那样可以流动,
#其中权重weights的矩阵形式为 行:in_size ,列:out_size
#其中偏置biases的矩阵形式为 行:1 ,列:out_size,
#类似于y = a * x + b ,这里的两个参数就是a和b,
weights = tf.Variable(tf.random_normal([in_size, out_size]))
biases = tf.Variable(tf.zeros([1, out_size]) + 0.1)
#定义Wx_plus_h,它是将输入与权重矩阵相乘,然后加上偏置,如果激活函数为空,就让输出等于Wx_plus_h,如果激活函数不为空,就将输出等于激活函数作用于Wx_plus_h的值,
Wx_plus_b = tf.matmul(inputs, weights) + biases
if activation_function is None:
outputs = Wx_plus_b
else:
outputs = activation_function(Wx_plus_b)
return outputs
#定义第一个隐藏层,利用之前定义好的add_layer函数,输入的值为xs,因为输入有一个值,所以in_size=1,在这里定义隐藏层有20个神经元,所以out_size=20,激活函数为tf.nn.relu
h1 = add_layer(xs, 1, 20, activation_function=tf.nn.relu)
#定义第二个隐藏层,也就是输出层。因为接受上一层的输出,所以这一层的输入in_size=20 ,输出仍然为1
prediction = add_layer(h1, 20, 1, activation_function=None)
#定义偏差,这里的偏差为输出值与真实值ys的偏差
loss = tf.reduce_mean(tf.reduce_sum(tf.square(ys - prediction), reduction_indices=[1]))
#然后使用优化器进行优化,设置优化方法为gradientdescent学习率learning rate为0.1
train_step = tf.train.GradientDescentOptimizer(0.1).minimize(loss)
#这一步非常的重要,在定义了Variable变量之后,一定要有一个初始化的过程
init = tf.global_variables_initializer()
#在tensorflow中,前面的动作是创建一个计算流程图,然后,在session.run 之后,数据才会被填充到图中,然后“流动”,就像它的名字一样,tensor flow,所以下面的步骤是绝对不能少的
with tf.Session() as sess:
sess.run(init)
for i in range(1000):
sess.run(train_step, feed_dict={xs: x_data, ys: y_data})
if i % 100 == 0:
print(sess.run(loss, feed_dict={xs: x_data, ys: y_data}))
最后是运行的结果,可以看出在进行100次后,误差就已经很小了
网友评论