美文网首页我爱编程
TF笔记 - 损失函数

TF笔记 - 损失函数

作者: 闫_锋 | 来源:发表于2018-05-25 22:06 被阅读23次
tf.nn.relu()
tf.nn.sigmoid()
tf.nn.tanh()

NN复杂度: 多用NN层数和NN参数的个数表示
层数 = 隐藏层的层数+1个输出层
总参数=总W+总b

NN优化
损失函数loss
学习率learning_rate
滑动平均ema
正则化regularization

损失函数loss: 预测值y与已知答案y_的差距

  • NN优化目标: loss最小
    ** Mean Squared Error
    ** 自定义
    ** Cross Entropy

均方误差mse: MSE(y, y_)
loss_mse = tf.reduce_mean(tf.square(y_-y))

√交叉熵(Cross Entropy):表示两个概率分布之间的距离。交叉熵越大,两个概率分布距离越远,两个概率分布越相异;交叉熵越小,两个概率分布距离越近,两个概率分布越相似。
交叉熵计算公式:H(y_ , y) = −∑y_ ∗ log y

用 Tensorflow 函数表示为:
ce= -tf.reduce_mean(y_* tf.log(tf.clip_by_value(y, 1e-12, 1.0)))

ce=tf.nn.sparse_softmax_cross_entropy_with_logits(logits=y, labels=tf.argmax(y_, 1))
cem = tf.reduce_mean(ce)

相关文章

  • TF笔记 - 损失函数

    NN复杂度: 多用NN层数和NN参数的个数表示层数 = 隐藏层的层数+1个输出层总参数=总W+总b NN优化损失函...

  • 1第一个代码

    feed_dict :喂数据tf.placeholder:喂参数给损失函数

  • 损失函数和优化-损失函数(2)

    引言 这一节的笔记,主要讲解除了SVM以外的另一种损失函数——softmax损失函数。 softmax损失函数 如...

  • tf.keras之损失函数

    tf.keras里面有许多内置的损失函数可以使用,由于种类众多,以几个常用的为例: BinaryCrossentr...

  • 机器学习:常见的损失函数

    损失函数简要介绍 0-1损失 绝对值损失 log对数损失函数 平方损失函数 指数损失函数 Hinge损失函数 损失...

  • (4)损失函数

    损失函数用来表示输出与实际值的差距。常用的损失函数为0-1损失函数、平方损失函数、绝对损失函数、对数损失函数、交叉...

  • tensorflow--各种损失函数

    来源:tensorflow学习笔记(三):损失函数 sparse_softmax_cross_entropy_wi...

  • 【深度学习】

    1, 两个重要的函数:得分函数和损失函数损失函数: hinge损失,softmax 损失。hinge损失: max...

  • 损失函数概述

    常用的损失函数 1.L1损失(绝对损失函数) 和 L2 损失(平方损失函数) L1范数损失函数,也被称为 最小绝对...

  • model.compile中的loss函数参数输入三种类型

    model.compile中的loss参数,可以输入三种类型,一种是损失函数名称,一种是自定义函数,还有一种是tf...

网友评论

    本文标题:TF笔记 - 损失函数

    本文链接:https://www.haomeiwen.com/subject/bnvujftx.html