美文网首页
tensorflow如何解决越运行越慢的问题

tensorflow如何解决越运行越慢的问题

作者: QYiZHong | 来源:发表于2018-04-20 19:05 被阅读1704次

    这几天写tensorflow的时候发现随着迭代的次数越来越多,tensorflow跑的速度越来越慢。查找才发现是tensorflow不断的给之前的图里加节点,导致占用的内存越来越大,然后我尝试了网上的各种方法,终于发现了一个靠谱的方法,先放上代码

    tf.reset_default_graph()
    graph = tf.Graph()
    with graph.as_default() as g:
        x_data = tf.placeholder(shape=[None, 36], dtype=tf.float32, name="input")
        y_output = tf.placeholder(shape=None, dtype=tf.float32, name="output")
    
        # 第一层
        layer_1 = tf.layers.dense(inputs=x_data, units=36, activation=tf.nn.relu, use_bias=True)
        # 第二层
        layer_2 = tf.layers.dense(inputs=layer_1, units=10, activation=None, use_bias=True)
        # 输出层
        weight = tf.Variable(tf.random_normal(shape=[10, 1], stddev=1.0))
        bia = tf.Variable(tf.random_normal(shape=[1], stddev=1.0))
        finish_output = tf.matmul(layer_2, weight) + bia
        tf.add_to_collection("out", finish_output)
    
        loss = tf.reduce_mean(tf.square(y_output - finish_output))
        opt = tf.train.AdamOptimizer(0.01)
        train_opt = opt.minimize(loss)
        tf.add_to_collection("train_opt", train_opt)
        saver = tf.train.Saver()
        with tf.Session(graph=g) as sess:
            init = tf.global_variables_initializer()
            sess.run(init)
    
            for i in range(len(x_data_array)):
                # 使用数据训练
                if i > 60:
                    break
                p = x_data_array[i]
                p = np.array(p)
                p = p.reshape([1, 36])
                sess.run(train_opt, feed_dict={
                    x_data: p, y_output: y_data
                })
            saver.save(sess, "./versionPool/" + str(index) + "/model_" + str(index) + ".ckpt")
    

    可以看出来我这段代码是加载了保存过的模型

    其中

    tf.reset_default_graph()
    graph = tf.Graph()
    with graph.as_default() as g:
    

    这个起到了关键作用,每次再训练的时候重置一下图,用新的图训练。这里踩了一个坑,我以为用了新图可以直接使用

    tf.train.import_meta_graph()
    

    然后通过变量名导入再跑就行了,然后我怎么用调都没法解决,最后我直接再定义一遍需要用的变量和操作然后就可以跑起来了

    因为我在我的项目中还需要时刻通过这个模型来预测,然后发现报错了,尝试了许久,我就在我生成模型的那部分代码也改成类似的

    tf.reset_default_graph()
    graph = tf.Graph()
    with graph.as_default() as g:
        x_data = tf.placeholder(shape=[None, 36], dtype=tf.float32, name="input")
        y_output = tf.placeholder(shape=None, dtype=tf.float32, name="output")
    
        # 第一层
        layer_1 = tf.layers.dense(inputs=x_data, units=36, activation=tf.nn.relu, use_bias=True)
        # 第二层
        layer_2 = tf.layers.dense(inputs=layer_1, units=10, activation=None, use_bias=True)
        # 输出层
        weight = tf.Variable(tf.random_normal(shape=[10, 1], stddev=1.0))
        bia = tf.Variable(tf.random_normal(shape=[1], stddev=1.0))
        finish_output = tf.matmul(layer_2, weight) + bia
        tf.add_to_collection("out", finish_output)
    
        loss = tf.reduce_mean(tf.square(y_output - finish_output))
        opt = tf.train.AdamOptimizer(0.01)
        train_opt = opt.minimize(loss)
        tf.add_to_collection("train_opt", train_opt)
    
        saver = tf.train.Saver()
    
        with tf.Session() as sess:
            init = tf.global_variables_initializer()
            sess.run(init)
            sess.run(train_opt, feed_dict={
                x_data: init_random_list(), y_output: np.random.randint(0, 1000)
            })
            saver.save(sess, "./versionPool/" + str(index) + "/model_" + str(index) + ".ckpt")
    

    可以看出来这是第一次生成模型的代码,我第一次就直接用了

    tf.reset_default_graph()
    graph = tf.Graph()
    

    然后我在使用模型做预测的过程中就不会报错了

    欢迎来我的博客 Qi的博客

    相关文章

      网友评论

          本文标题:tensorflow如何解决越运行越慢的问题

          本文链接:https://www.haomeiwen.com/subject/ifmzkftx.html