美文网首页
神经网络+激活函数

神经网络+激活函数

作者: 我好菜啊_ | 来源:发表于2019-02-15 15:06 被阅读0次

参考cs231n与这位的博文https://www.zhihu.com/people/will-55-30/posts?page=1 非常感谢!


之前提到的最简单的线性分类器f=Wx,每个分类对应一个模板有说到朝左朝右的马的问题。如果使用两层的话,如下图,W1计算出了100个分数,这100个里面就会有头朝左的马的分数,头朝右的马等等,然后经过一个非线性操作(max)得到h,再经过W2就会得到马的分数,这样就解决了之前提到的一个类别只对应一个模板的局限性
注意:非线性操作这一步非常重要,没有的话这两个矩阵就可以直接合并了,就没有两层了。
W1,W2是要学习的参数,中间隐层的尺寸是超参数



Wx然后再进行线性操作这个过程与brain的类比



沿轴突传播的信号x,突触强度wi
突触强度是可学习的且可以控制一个神经元对于另一个神经元的影响强度和方向(正向使其兴奋,负方向抑制)
树突将信号传递到细胞体,信号在细胞体中相加,如果最终之和高于某个阈值,那么神经元将会激活。
激活函数表达了轴突上激活信号的频率
cell body中进行的是一些线性操作,activation function f进行的是非线性运算
将激活函数应用在神经元的端部,得到的值作为输出

class Neuron(object):
def forward(inputs):
   cell_body_sum=np.sum(inputs*self.weights)+self.bias
   firing_rate=1.0/(1.0+math.exp(-cell_body_sum))
   return firing_rate

激活函数



sigmoid:
1.平坦区域的饱和使梯度消失
2.输出不是零中心的,这会导致在神经网络后面层中的神经元得到的数据不是零中心的,这会影响梯度下降的运作。
其中Relu是和神经元工作原理最相近的
Relu的优点
相较于sigmoid和tanh,Relu对于随机梯度下降的收敛有巨大的加速作用
计算方便
缺点:
easily die 神经元无法再被激活 特别是学习率设置太高的时候
(die的现象太严重时也可以选择leaky Relu或Maxout)

相关文章

  • 3. 深度学习- 常用的激活函数

    在学习神经网络中,我们会常常碰到激活函数这个名词。那么什么是激活函数?激活函数激活的是什么?在神经网络中,有什么用...

  • 机器学习笔记(五)——激活函数

    激活函数区别和作用 本质:    激活函数是来向神经网络中引入非线性因素,通过激活函数,神经网络就可以拟合各种曲线...

  • 机器学习之神经网络

    什么是神经网络 就是使用了平滑的激活函数的多层感知机 激活函数 什么是激活函数呢? 激活函数就是从输入值到对应输出...

  • 开学季,你要的激活函数都在这里

    摘要:激活函数就是神经网络输出端的一个节点,来连接两个神经网络。激活函数都有哪些类型?让我们继续阅读。 什么是激活...

  • 机器学习中常见函数

    1、激活函数 常用于神经网络,激活函数增加了神经网络模型的非线性特征 2、损失函数 机器学习过程中中,我们期望样本...

  • ReLu(Rectified Linear Units)激活函数

    Sigmoid函数以及传统线性函数 在ReLU激活函数出现之前,神经网络训练都是勇Sigmoid作为激活函数。其中...

  • 激活函数与损失函数

    激活函数 1、作用: 线性模型的表达能力不够,激活函数增加神经网络模型的非线性,提升神经网络模型表达能力(数据往往...

  • 神经网络相关词汇翻译

    neural networks 神经网络 activation function 激活函数 hyperbolic ...

  • 神经网络的激活函数总结

    导言 激活函数在神经网络中具有重要的地位。在SIGAI之前的公众号文章“理解神经网络的激活函数”中,我们回答了3个...

  • 激活函数 sigmoid、tanh、relu

    激活函数(activation functions)的目标是,将神经网络非线性化。激活函数是连续的(continu...

网友评论

      本文标题:神经网络+激活函数

      本文链接:https://www.haomeiwen.com/subject/ocapeqtx.html