美文网首页
2019-07-24 激活函数 梯度下降 损失函数

2019-07-24 激活函数 梯度下降 损失函数

作者: cumtcstian | 来源:发表于2019-07-24 10:26 被阅读0次

原文:https://www.jianshu.com/p/5329ad3561ea

后面可以看下这篇文章:https://www.cnblogs.com/lliuye/p/9486500.html

一、激活函数

激活函数是每一层神经网络之后用的非线性函数,因为神经网络本身是线型的,利用激活函数可以使之实现非线性。

激活函数主要有四个: sigmoid, tanh, RELU, Leaky RELU. 还有一位博主将softmax 也加了进来。也有一定的道理,因为这五个小兄弟都是将一个K?维的向量映射为另一个K?维的向量。

接下来的话照搬这个知乎专栏

1. sigmoid

sigmoid函数及其导数

sigmoid函数会导致梯度消失(gradient vanishing)。

2. tanh

非线性激活函数,y的值是-1-1,TensorFlow对应的是tf.nn.tanh(x,name=None)

tanh

3. ReLU

f(x)=max(0,x),tensorflow中对应的是tf.nn.relu(features,name=None)

这个函数的优点是处理后的数据具有更好额稀疏性,只有最大数值与0.

5. leaky ReLU

leaky ReLU

5. softmax

Softmax的使得映射后的元素之和为1,通常用在分类任务最后一层。

二、梯度下降

梯度下降是神经网络优化的方法,令输出逼近目标值。

啊懒得写了,看看这个博文就知道了

三、损失函数

这篇博文讲述了

交叉熵损失函数

均值平方差

就是mse,均方误差越小,表明模型越好,

交叉熵

表现预测输入样本属于某一类的概率,越小,预测的效果越准

损失函数的选取取决于输入标签数据的的类型,如果输入的是实数,无界的值,那么就应该使永平方差,如果输入的标签是位矢量,使用交叉熵可能会更合适。

tensorflow 中常见的loss函数

均值平方差,就是tf.reduce_mean(tf.pow(tf.sub(logits,outputs),2.0))

交叉熵:主要有sigmoid函数,softmax函数

相关文章

  • 激活函数\梯度下降\损失函数

    一个痛心疾首的发现:这些知识不管学多少遍还是会忘记…… 为了加深印象,再再再再看一遍并记录下来。 一、激活函数 激...

  • 2019-07-24 激活函数 梯度下降 损失函数

    原文:https://www.jianshu.com/p/5329ad3561ea 后面可以看下这篇文章:http...

  • 线性回归 及 梯度下降(代码实现)

    重点 1 特征归一化2 损失函数3 梯度下降 特征归一化 损失函数 梯度下降法

  • 机器学习笔记 - 逻辑回归

    假设公式 损失函数 梯度下降 过拟合 防止过拟合: 梯度下降

  • Logistic Regression

    推导 sigmoid 推导LR损失函数 推导LR梯度下降 Softmax原理 softmax 损失函数 softm...

  • 神经网络基础

    logistic回归 其中取值范围 (0, 1) 损失函数 梯度下降(求损失函数的最小值)

  • 模拟梯度下降

    模拟实现梯度下降1.1 损失函数可视化 定义损失函数与求导 寻找最佳参数 模拟梯度下降 输出 查看生成了多少个th...

  • 算法学习笔记——神经网络

    关键词:输入层、输出层、中间层、单元\节点、感知器、BP神经网络、激活函数、深度学习、梯度下降、损失函数、反向传播...

  • 2019-04-13

    目录 假设函数概念 线性假设类损失函数 梯度下降和随机梯度下降 矩阵迹的倒数 正规方程法解线性假设函数最优参数 1...

  • Stochastic Gradient Descent vs B

    梯度下降是最小化风险函数/损失函数的一种经典常见的方法,下面总结下三种梯度下降算法异同。 1、 批量梯度下降算法(...

网友评论

      本文标题:2019-07-24 激活函数 梯度下降 损失函数

      本文链接:https://www.haomeiwen.com/subject/fevtrctx.html