tf.train.GradientDescentOptimizer()
# 随机梯度下降
tf.train.MomentumOptimizer()
# 更新参数时利用了超参数
tf.train.AdamOptimizer()
# 自适应学习率的优化算法
# Adam 算法通过计算梯度的一阶矩估计和二 阶矩估计而为不同的参数设计独立的自适应性学习率
tf.train.GradientDescentOptimizer()
# 随机梯度下降
tf.train.MomentumOptimizer()
# 更新参数时利用了超参数
tf.train.AdamOptimizer()
# 自适应学习率的优化算法
# Adam 算法通过计算梯度的一阶矩估计和二 阶矩估计而为不同的参数设计独立的自适应性学习率
本文标题:tensorflow 优化器
本文链接:https://www.haomeiwen.com/subject/tjondctx.html
网友评论