目的
通过观察数据大概的样子,猜测对应的模型,根据数据集拟合出一个最优的模型,这样可以计算任何点的值,可以查看历史和未来数据的。
数据集
构建随机的线性数据集
生成100个点的线性随机点
"""
import numpy as np
import tensorflow as tf
import matplotlib.pyplot as plt
#训练数据和测试数据
number=100
list_x = []
list_y = []
for i in range(number):
x = np.random.randn(1)
#这里构建的数据的分布满足 y=2*x+3 增加了一些噪点
y = 2*x+3+np.random.randn(1)*1
list_x.append(x)
list_y.append(y)
print(list_x)
print(list_y)
plt.scatter(list_x, list_y)
plt.show()
数据集散点图
数据集散点图确定拟合模型
根据散点图的分布,散点的趋势是可以有一条直线,通过调整斜率和截距来拟合。猜测是线性模型:y=wx+b。但是w和b咱们是不知道的,怎么知道w和b呢,可以一开始给随机值,然后通过现有数据的训练,最后计算出w和b达到最优解。
模型实现和训练
#初始化x和y的占位符
X = tf.placeholder(tf.float32, name='X')
Y = tf.placeholder(tf.float32, name='Y')
# 初始化 w 和 b
W = tf.Variable(tf.random_normal([1]), name='weight')
b = tf.Variable(tf.random_normal([1]), name='bias')
#建模,建立op y=w*x+b
Y_pred = tf.add(tf.multiply(X,W),b)
#计算损失函数值
loss = tf.square(Y-Y_pred, name='loss')
#初始化optimizer (优化器)
#学习率
learning_rate = 0.01
#选择优化器,这里使用梯度下降算法
optimizer = tf.train.GradientDescentOptimizer(learning_rate).minimize(loss)
#指定迭代次属,并在session中执行graph
#初始化数据样本个数
n_samples = len(list_x)
#初始化全部变量
init = tf.global_variables_initializer()
with tf.Session() as sess:
sess.run(init)
writer = tf.summary.FileWriter('./graphs', sess.graph)
#训练模型,训练100次
for i in range(100):
total_loss = 0
#zip函数 处理后 [(x1,y1),(x2,y2),...]
for x, y in zip(list_x, list_y):
#通过feed_dict把数据喂进去
#这里说明下先执行了 optimier op 然后再执行 loss op 使用的数据都是feed_dict的
sess.run([optimizer, loss],feed_dict={X:x,Y:y})
#每10次输出一个训练情况,看看loss
if i %10==0:
print("step %d eval loss is %f" % (i, total_loss/n_samples))
#关闭writer
writer.close()
W = sess.run(W)
b = sess.run(b)
#输出下最红的w和b
print(W)
print(b)
取得的W和B
[2.087692]
[3.0534093]
查看拟合情况
plt.plot(list_x, list_y, 'bo', label='real data')
plt.plot(list_x, W*list_x+b, 'r', label='predicted data')
plt.legend()
plt.show()
image.png
全代码
到github查看https://github.com/horacepei/tensorflow_study
网友评论