美文网首页
深度学习02-激活函数和成本损失函数

深度学习02-激活函数和成本损失函数

作者: __流云 | 来源:发表于2018-03-15 23:01 被阅读0次

损失函数:

机器学习中单个样本的预测值与真实值的差称为损失,失越小,模型越好,如果预测值与真实值相等,就是没有损失(损失为0,真实值-预测值=0)。 用于计算损失的函数称为损失函数。模型每一次预测的好坏用损失函数来度量。

损失函数在图像识别方面最好用的还是方差函数,即

平方差函数

激活函数

我们想要的函数应该是,能够接受所有的输入然后预测出类别。例如在两个类的情况下,分类函数能够输出0或1,这类函数成为“海威赛德阶跃函数”,然而这类函数的问题在于,该函数直接在跳跃点从0跳跃到1,这个瞬间的跳跃有点难处理,幸好有个函数有类似的性质,并且在数据上更容易处理。

激活函数的主要有:

sigmoid函数:

sigmoid函数,z是实数

此函数在坐标系中表示为单调递增的光滑曲线,如下图:

在(0,0.5)点分界

为什么要采用此函数呢:

假设有一个n维的输入列向量 x,也有一个n维的参数列向量h, 还有一个偏置量b, 那么就可以线性求和得到z:

但是由于此时因为z的值域是[−∞,+∞][−∞,+∞] ,是无法根据z来判断xx 到底是属于0还是1的。因此我们需要一个函数,来将z的值映射到[0,1]之间, 这就是激活函数。激活函数有很多种,这里的激活函数是sigmoid函数。

    a. 当z无穷小时,e<-z> = 1/e<z>≈0 ,则函数≈1/1+0 = 1;

    b. 当z无穷大时,e<-z> = 1/e<z> = 无穷大的数,分母变大,值越小≈0

sigmoid 函数取值过程

可以看到x越大,σ(x)σ(x)越接近1,反之,则越接近0. 那么在判断的时候,我们首先对之前得到的z代入sigmoid函数 :

当 a 大于0.5的时候,我们判定x应属于1类,如果小于0.5,则属于0类。这样,就完成了判断的工作。

------------------- 待学习内容:

tanh

ReLU,P-ReLU, Leaky-ReLU

ELU

Maxout

相关文章

  • 深度学习02-激活函数和成本损失函数

    损失函数: 机器学习中单个样本的预测值与真实值的差称为损失,失越小,模型越好,如果预测值与真实值相等,就是没有损失...

  • 激活函数softmax-P2分类任务

    激活函数种类激活函数作用 激活函数 深度学习常用激活函数之— Sigmoid & ReLU & Softmax 深...

  • 2019-10-09

    深度学习第三天 激活函数: 激活函数是...

  • ReLu 激活函数理解

    ReLU激活函数:简单之美深度学习中的激活函数与梯度消失

  • 激活函数和损失函数

    3.1 激活函数 关于激活函数,首先要搞清楚的问题是,激活函数是什么,有什么用?不用激活函数可不可以?答案是不可以...

  • 算法学习笔记——神经网络

    关键词:输入层、输出层、中间层、单元\节点、感知器、BP神经网络、激活函数、深度学习、梯度下降、损失函数、反向传播...

  • 理解激活函数

    一、何为激活函数? 深度学习中,激活函数通常指能够实现非线性映射的函数 二、为什么需要非线性激活函数? 定义:这里...

  • 一文理清深度学习前馈神经网络

    ? Index 多层感知机(MLP)介绍 深度神经网络的激活函数 深度神经网络的损失函数 多层感知机的反向传播算法...

  • [pytorch]如何将label转化成onehot编码

    之前用octave学习神经网络的时候,用逻辑回归,激活函数是sigmoid,损失函数是交叉熵损失函数,那个时候不用...

  • 激活函数和损失函数-Question

    1. 有哪些激活函数,有什么用? ReLU、Sigmoid、Tanh。作用:非线性变换。 2. ReLU、Sigm...

网友评论

      本文标题:深度学习02-激活函数和成本损失函数

      本文链接:https://www.haomeiwen.com/subject/yvrkqftx.html