美文网首页
TF - optimizer

TF - optimizer

作者: leo567 | 来源:发表于2018-11-04 15:54 被阅读0次

    tf.train.GradientDescentOptimizer
    tf.train.AdadeltaOptimizer
    tf.train.AdagradOptimizer
    tf.train.AdagradDAOptimizer
    tf.train.MomentumOptimizer
    tf.train.AdamOptimizer
    tf.train.FtrlOptimizer
    tf.train.ProximalGradientDescentOptimizer
    tf.train.ProximalAdagradOptimizer
    tf.train.RMSPropOptimizer

    各种优化器对比:

    • 标准梯度下降法:
      标准梯度下降先计算所有样本汇总误差,然后根据总误差来更新权值。(权值更新慢)
    • 随机梯度下降法:
      随机梯度下降随机抽取一个样本来计算误差,然后更新权值。(权值更新快,但可能引入比较多的噪声)
    • 批量梯度下降法:
      批量梯度下降算是一种折中的方案,从总样本中选取一个批次(比如一共有10000个样本,随
      机选取100个样本作为一个batch),然后计算这个batch的总误差,根据总误差来更新权

    W:要训练的参数
    J(W):代价函数
    η:学习率


    代价函数的梯度
    • SGD(随机梯度下降法):


    • Momentum:

    γ:动力,通常设置为0.9。当前权值的改变会受到上一次权值改变的影响,类似于小球向下滚动的时候带上了惯性。这样可以加快小球的向下的速度。

    • NAG(Nesterov accelerated gradient):


    NAG在TF中跟Momentum合并在同一个函数tf.train.MomentumOptimizer中,可以通过参数配置启用。在Momentun中小球会盲目地跟从下坡的梯度,容易发生错误,所以我们需要一个更聪明的小球,这个小球提前知道它要去哪里,它还要知道走到坡底的时候速度慢下来而不是又冲上另一个坡。γvt−1会用来修改W的值,计算W−γvt−1可以表示小球下一个位置大概在哪里。从而我们可以提前计算下一个位置的梯度,然后使用到当前位置。

    • Adagrad:
      i:代表第i个分类
      t:代表出现次数
      ϵ:的作用是避免分母为0,取值一般为1e-8
      η:取值一般为0.01

    它是基于SGD的一种算法,它的核心思想是对比较常见的数据给予它比较小的学习率去调整参数,对于比较罕见的数据给予它比较大的学习率去调整参数。它很适合应用于数据稀疏的数据集(比如一个图片数据集,有10000张狗的照片,10000张猫的照片,只有100张大象的照片)。Adagrad主要的优势在于不需要人为的调节学习率,它可以自动调节。它的缺点在于,随着迭代次数的增多,学习率也会越来越低,最终会趋向于0。

    • RMSprop:
      RMS(Root Mean Square)是均方根的缩写。
      γ:动力,通常设置为0.9
      η:取值一般为0.001



    RMSprop借鉴了一些Adagrad的思想,不过这里RMSprop只用到了前t-1次梯度平方的平均值加上当前梯度的平方的和的开平方作为学习率的分母。这样RMSprop不会出现学习率越来越低的问题,而且也能自己调节学习率,并且可以有一个比较好的效果。

    • Adadelt


      最后一行,减数为:对前t-1次 ΔW求均方根/对前t次代价函数的梯度求均方根

    使用Adadelta我们甚至不需要设置一个默认学习率,在Adadelta不需要使用学习率也可以达到一个非常好的效果。

    • Adam

    β1: 一般取值0.9
    β2 :一般取值0.999


    就像Adadelta和RMSprop一样Adam会存储之前衰减的平方梯度,同时它也会保存之前衰减的梯度。经过一些处理之后再使用类似Adadelta和RMSprop的方式更新参数。

    优化器对比:

    SGD各优化方法在损失曲面上的表现

    从上图可以看出, Adadelta ,Adagrad与RMSprop在损失曲面上能够立即转移到正确的移动方向上达到快速的收敛。而Momentum 与NAG会导致偏离(off-track)。同时NAG能够在偏离之后快速修正其路线,因为其根据梯度修正来提高响应性。

    SGD各优化方法在损失曲面鞍点处上的表现

    SGD停留在了鞍点,值得注意的是,准确率比收敛速度要重要
    建议:先选择收敛快的做训练,最后最好各个优化器都跑一遍,再选择准确率最高的

    optimizer在tensorflow中的使用

    import tensorflow as tf
    import os
    from tensorflow.contrib.learn.python.learn.datasets.mnist import read_data_sets
    
    os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2'
    
    # 载入数据集(放在当前代码目录)
    mnist = read_data_sets("MNIST_data/", one_hot=True)
    
    # 每个批次的大小(每次训练图片的数量)
    batch_size = 100
    # 计算一共有多少个批次
    n_batch = mnist.train.num_examples // batch_size
    
    # 定义两个placeholder
    x = tf.placeholder(tf.float32, [None, 784])
    y = tf.placeholder(tf.float32, [None, 10])
    keep_prob = tf.placeholder(tf.float32)
    lr = tf.Variable(0.001, dtype=tf.float32)
    
    # 创建一个简单的神经网络
    W1 = tf.Variable(tf.truncated_normal([784, 500], stddev=0.1))
    b1 = tf.Variable(tf.zeros([500]) + 0.1)
    L1 = tf.nn.tanh(tf.matmul(x, W1) + b1)
    L1_drop = tf.nn.dropout(L1, keep_prob)
    
    W2 = tf.Variable(tf.truncated_normal([500, 300], stddev=0.1))
    b2 = tf.Variable(tf.zeros([300]) + 0.1)
    L2 = tf.nn.tanh(tf.matmul(L1_drop, W2) + b2)
    L2_drop = tf.nn.dropout(L2, keep_prob)
    
    W3 = tf.Variable(tf.truncated_normal([300, 10], stddev=0.1))
    b3 = tf.Variable(tf.zeros([10]) + 0.1)
    prediction = tf.nn.softmax(tf.matmul(L2_drop, W3) + b3)
    
    # 交叉熵代价函数
    loss = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(labels=y, logits=prediction))
    # 训练
    train_step = tf.train.AdamOptimizer(lr).minimize(loss)
    
    # 初始化变量
    init = tf.global_variables_initializer()
    
    # 结果存放在一个布尔型列表中
    correct_prediction = tf.equal(tf.argmax(y, 1), tf.argmax(prediction, 1))  # argmax返回一维张量中最大的值所在的位置
    # 求准确率
    accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))
    
    with tf.Session() as sess:
        sess.run(init)
        for epoch in range(51):
            sess.run(tf.assign(lr, 0.001 * (0.95 ** epoch)))
            for batch in range(n_batch):
                batch_xs, batch_ys = mnist.train.next_batch(batch_size)
                sess.run(train_step, feed_dict={x: batch_xs, y: batch_ys, keep_prob: 1.0})
    
            learning_rate = sess.run(lr)
            acc = sess.run(accuracy, feed_dict={x: mnist.test.images, y: mnist.test.labels, keep_prob: 1.0})
            print("Iter " + str(epoch) + ", Testing Accuracy= " + str(acc) + ", Learning Rate= " + str(learning_rate))
    
    
    

    相关文章

      网友评论

          本文标题:TF - optimizer

          本文链接:https://www.haomeiwen.com/subject/loprxqtx.html