Tensorflow入门——线性回归

作者: Hongtao洪滔 | 来源:发表于2019-03-11 21:11 被阅读7次

    上一篇文章我们介绍了Tensorflow的基础,趁热打铁,这篇文章介绍一下如何用Tensorflow训练一个线性回归的项目。

    为了方便读者交流和学习,我在github上创建了一个repo,地址在这里
    https://github.com/zht007/tensorflow-practice

    1. import

    首先当然是要import tensorflow,numpy 以及以及数据可视化工具

    import tensorflow as tf
    import numpy as np
    import matplotlib.pyplot as plt
    %matplotlib inline
    

    这里"%matplotlib inline" 用在jupyter notebook,可以使数据可视化交互更加友好。

    2. 创建模拟数据

    这里我们要创建一个线性回归的模拟数据,y = x,一共20个点,再在这些点上加一些随机的噪音,数据用numpy生成。

    x_data = np.linspace(0,10,20) + np.random.uniform(-1.5,1.5,20)
    y_data = np.linspace(0,10,20) + np.random.uniform(-1.5,1.5,20)
    

    3. 初始化w 和 b

    线性回归中,训练的参数就是权重(weight)w 和偏移(bais)b,我们这里用numpy随机生成w和b的初始值。

    当然w和b是tensorflow中训练的对象,所以记得转换成tensorflow的变量。


    4. 定义(error)损失函数

    训练的目标是降低error,我们需要在这里手动定义error是什么,这里我定义的是:累积误差的平方

    error = 0
    for x,y in zip(x_data,y_data):
        error += (w_tf * x + b_tf - y)**2
    

    5. 定义Optimizer(优化器)

    线性回归,需要通过Gradient Decendent(梯度下降方法)训练w, 和 b。Tensorflow中提供了这个Optimizer。

    同时不要忘了,定义train 来最小化 error.

    optimizer = tf.train.GradientDescentOptimizer(learning_rate=0.001)
    train = optimizer.minimize(error)
    

    6. 开始训练啦

    这里就是Tensorflow的标准流程啦,不要忘了初始化,以及将最后训练的结果w_final 和 b_final 提取出来。

    注意这里我们定义了训练的次数train_steps

    init = tf.global_variables_initializer()
    
    train_steps = 10
    with tf.Session() as sess:
        sess.run(init)
        for step in range(train_steps):
            sess.run(train)
        w_final, b_final = sess.run([w_tf,b_tf])
    

    7. 检验训练成果

    最后,我们把原始数据和训练得到的结果通过plt.plot可视化,就一目了然啦。


    尾巴

    本文通过简单几步就完成了Tensorflow的线性回归项目的创建和训练,是不是很简单。

    相关文章

      网友评论

        本文标题:Tensorflow入门——线性回归

        本文链接:https://www.haomeiwen.com/subject/omcipqtx.html