TF笔记 - BP

作者: 闫_锋 | 来源:发表于2018-05-25 18:37 被阅读23次

√反向传播:训练模型参数,在所有参数上用梯度下降,使NN模型在训练数据
上的损失函数最小。

√损失函数(loss):计算得到的预测值 y 与已知答案 y_的差距。

损失函数的计算有很多方法,均方误差MSE是比较常用的方法之一。

√均方误差MSE:求前向传播计算结果与已知答案之差的平方再求平均。

formula.png

用 tensorflow 函数表示为:
loss_mse = tf.reduce_mean(tf.square(y_ - y))

√反向传播训练方法:以减小loss值为优化目标,有梯度下降、momentum优化
器、adam优化器等优化方法。
这三种优化方法用 tensorflow 的函数可以表示为:

train_step=tf.train.GradientDescentOptimizer(learning_rate).minimize(loss)

train_step=tf.train.MomentumOptimizer(learning_rate, momentum).minimize(loss)

train_step=tf.train.AdamOptimizer(learning_rate).minimize(loss)

√学习率:决定每次参数更新的幅度。

相关文章

  • TF笔记 - BP

    √反向传播:训练模型参数,在所有参数上用梯度下降,使NN模型在训练数据上的损失函数最小。 √损失函数(loss):...

  • 推荐笔记 tf2 wide&deep

    tf2 wide&deep学习笔记 案例:

  • TF笔记

    anaconda prompt pip install --upgrade --ignore-installed ...

  • 第186次练级

    拍照侠:邓男神笔记侠:杨红燕主持人:吴小园 今天的练级人员有两位,TF3-1吴小园,TF1-1李美霞,TF1-2李...

  • # TF Eager Execution 阅读笔记

    TF Eager Execution 阅读笔记 @[TensonFlow] 看了半天不知道Eager 是啥,这哪能...

  • TF学习笔记(一)- tf介绍

    为了跟上时代,仍然以最新版本的kinetic为例学习,主要是它命令行比较好看,不过,都用命令行了,要什么自行车开始...

  • TF笔记 - FP

    线上的权重W, 用变量表示,随机给初值。 举例①w=tf.Variable(tf.random_normal([2...

  • Tensorflow学习笔记——word2vec

    本笔记记录一下鄙人在使用tf的心得,好让自己日后可以回忆一下。其代码内容都源于tf的tutorial里面的Vect...

  • 2020-10-15

    tf.get_variable tf.cast用法 tf.summary.scalar tf.one_hot tf...

  • 【2020-05-10】tf 学习笔记 (一)

    tf.nn.embedding_lookup() tf.Graph() 和tf.Session() tf.Grap...

网友评论

    本文标题:TF笔记 - BP

    本文链接:https://www.haomeiwen.com/subject/xxlujftx.html