美文网首页机器学习与数据挖掘我爱编程
Tensorflow[基础篇]——变量创建、存储与恢复

Tensorflow[基础篇]——变量创建、存储与恢复

作者: Salon_sai | 来源:发表于2017-07-21 20:34 被阅读121次

    前言

    本文章是一篇源于Tensorflow里面Programmer's Guide的Variables: Creation, Initialization, Saving, and Loading的教程。这也算是自己在学习tensorflow里面的一些感悟吧,所以就记录下来与大家分享并作为回忆录。在tensorflow官网的地址:Variables: Creation, Initialization, Saving, and Loading

    在我们使用Tensorflow的时候,都需要创建变量、常量、读取数据,那问题是怎么在Tensorflow里面创建变量呢?这就变成一个很基础的问题了。


    创建

    1. 变量

    import tensorflow as tf
    
    weights = tf.Variable(
      tf.random_normal([2, 2, 3], mean=0, stddev=0.35), 
      name="weights")
    

    上面代码的意义是创建一个weights的变量(4-D张量)其shape为[2, 2, 3]并命名为weights。这个张量通过random_normal(mean, stddev)随机生成,数据符合高斯分布(期望值:mean,方差:stddev)。当然也有其他的产生随机数的函数:

    tf.random_uniform() # 均匀分布的随机数
    tf.random_multinomial() # 多重高斯分布的随机数
    tf.random_gamma() # gamma的随机数
    # .... other random function
    

    可能有人问:为什么会符合某种分布的随机数啊?不可以随便一个随机数生成器这样来生成随机数吗?

    个人认为是可以的,但至于为什么有这些乱七八糟的符合某种分布的随机数呢。个人认为现在很多优化算法都只能将模型训练成Local minimum,不一定能产生Global minimum。当中的一个原因是因为初始的数据,对于某一种模型他的Global minimum的附近值都比较符合某种分布,这样的话我们用这些数据做初始值的话会比较容易得到Global minimum。又或者这些数据是有某种约束,那么我就需要用这个分布来产生随机数。

    2. 常量

    这里就直接上代码了,因为比较直观

    # 创建一个2-D tensor,当中的值用-1.0来填充,shape为[2, 3]
    tf.constant(value=-1.0, shape=[2, 3], name='c')
    # => [[-1. -1. -1.] [-1. -1. -1.]]
    
    # 创建一个全为1的2-D tensor,当中的值用1来填充
    tf.ones([2, 3], tf.int32)
    
    # 创建一个全为1的2-D tensor,当中的值用9来填充
    tf.fill(dim=[2, 3], value=9)
    

    当然啦,我这里只是展示部分api的使用。假如你有特殊要求的话,那就上Tensorflow去找找相关的内容吧。Tensorflow的常量,序列,随机数张量

    3. 读取数据

    在训练模型的时候,我们都需要用到训练数据对模型进行训练(喂养feed)。那这里就涉及到读取数据啦。读取数据有很多种形式,而且也有很多重要的内容。在这里我就不展开讲述了。我会找个机会详细的讲讲各种读取数据的方式。这里我就讲述其中一样比较常见的。那就是tf.placeholder()

    x = tf.placeholder(dtype=tf.float32, shape=[2, 3], name='x')
    
    ....
    
    sess = tf.Session()
    
    train_data = np.random.rand(2, 3)
    sess.run([loss], dict_feed={x: train_data})
    

    这里我就定义了一个placehoder给模型直接喂养数据来训练啦。是不是很简单呢?哈哈 最简单通常也是效率最一般的做法,那比较高效的方法当然就是迟点再说啦。


    存储与恢复

    对于一个模型的训练过程,我们通常都要经过漫长的等待。而等待期间...突然断电了。我训练一整天的模型还没出来最后就停了,是不是很绝望呢?又或者我们在训练的过程当中想保存最优的那个参数模型,而不是最后的训练模型参数。所以我们都需要在训练过程当中对模型参数进行保存和恢复操作。
    其实这里也都是很简单的内容啦。所以我就直接贴代码就可以理解了。

    # -*- coding: utf-8 -*-
    
    import tensorflow as tf
    import os
    
    v1 = tf.Variable(tf.random_normal([2, 2], mean=1, stddev=0.2), name="v1")
    v2 = tf.Variable(tf.random_normal([3, 3], mean=3, stddev=0.5), name="v2")
    
    init_op = tf.global_variables_initializer()
    
    # 创建saver对象
    saver = tf.train.Saver()
    
    with tf.Session() as sess:
        sess.run(init_op)
        print(sess.run(v1))
        print("\n")
        print(sess.run(v2))
    
        if not os.path.exists('./tmp'):
            print("create the directory: ./tmp")
            os.mkdir("./tmp")
    
        # 保存好模型参数
        save_path = saver.save(sess, "./tmp/model.ckpt")
        print("Model saved in file: %s" % save_path)
    
    with tf.Session() as sess1:
        # 恢复模型参数到sess1当中
        saver.restore(sess1, "./tmp/model.ckpt")
        print("Model restored")
        print(sess1.run(v1))
    

    可见里面保存参数的代码就是save_path = saver.save(sess, "./tmp/model.ckpt"),恢复参数的代码是saver.restore(sess1, "./tmp/model.ckpt")


    这大概就是今天分享的内容啦。是不是很简单呢?哈哈。因为是基础篇嘛。好好享受weekend吧各位!

    相关文章

      网友评论

        本文标题:Tensorflow[基础篇]——变量创建、存储与恢复

        本文链接:https://www.haomeiwen.com/subject/xdxskxtx.html