美文网首页神经网络
神经网络常用函数理解

神经网络常用函数理解

作者: 百里香_a052 | 来源:发表于2018-11-13 16:46 被阅读73次

神经网络一个重要的性质是: 可以自动地从数据当中学习到合适的权重参数。

关于激活函数

激活函数是将输入信号经过权重计算的总和转换成输出信号的一个函数。例如: 当计算的结果 result >0 ,输出信号则为1,否则为0。

激活函数的种类

1. 阶跃函数

2. sigmoid函数

两个函数都是非线性的函数,sigmoid函数有连续性的变化,更具平滑性,此性质对神经网络很重要。

3. ReLU(rectified linear unit)函数

大于0时,直接输出该值。小于0时,值为0。

关于输出层的函数

1. 恒等函数

原封不动的输出权重计算后的结果

2.softmax函数

把结果转换成出现该事件的概率。

损失函数

意义: 表示神经网络性能"恶劣程度"的指标,即当前的神经网络对监督数据在多大程度上不一致。

1. 均方误差(根据神经网络的输出和监督数据进行计算)

2. 交叉熵误差(同上)

3. mini-batch学习(求平均损失函数)

相关文章

  • 神经网络中最常用的激活函数

    Sigmoid函数 函数曲线如下图所示: Sigmoid函数是传统神经网络中最常用的激活函数,一度被视为神经网络的...

  • 神经网络常用函数理解

    神经网络一个重要的性质是: 可以自动地从数据当中学习到合适的权重参数。 关于激活函数 激活函数是将输入信号经过权重...

  • 机器学习中常见函数

    1、激活函数 常用于神经网络,激活函数增加了神经网络模型的非线性特征 2、损失函数 机器学习过程中中,我们期望样本...

  • tensorflow 教程总结

    TensorFlow常用函数 tensorflow搭建简单神经网络 | Python tflearn 实现vgg1...

  • 激活函数

    神经网络中的常用激活函数及其导数 1、sigmoid:该函数将取值(-∞,+∞)的数映射到(0,+1)之间。 函数...

  • Pytorch_第九篇_神经网络中常用的激活函数

    神经网络中常用的激活函数 Introduce 理论上神经网络能够拟合任意线性函数,其中主要的一个因素是使用了非线性...

  • AI常用激活函数分析4,Relu函数与Leaky Relu函数

    ReLu函数 修正线性单元(Rectified linear unit,ReLU)是神经网络中最常用的激活函数。它...

  • 深度学习入门-mini-batch学习

    神经网络的学习所用指标是损失函数。两种常用的损失函数: 均方误差: y是神经网络输出,t是监督数据 交叉熵误差: ...

  • Sigmoid 函数

    前言 Sigmoid 函数(Logistic 函数)是神经网络中非常常用的激活函数,我们今天来深入了解一下 Sig...

  • Pytorch_第六篇_深度学习 (DeepLearning)

    深度学习 (DeepLearning) 基础 [2]---神经网络常用的损失函数 Introduce 在上一篇“深...

网友评论

    本文标题:神经网络常用函数理解

    本文链接:https://www.haomeiwen.com/subject/qbulfqtx.html