美文网首页
算法基础知识(全连接层、LSTM、激励函数)

算法基础知识(全连接层、LSTM、激励函数)

作者: 灿烂的GL | 来源:发表于2018-05-23 20:48 被阅读0次

1、全连接层作用:

全连接的一个作用是维度变换,尤其是可以把高维变到低维,同时把有用的信息保留下来。

全连接另一个作用是隐含语义的表达(embedding),把原始特征映射到各个隐语义节点(hidden node)。对于最后一层全连接而言,就是分类的显示表达


2、简述LSTM如何解决梯度消失

LSTM有能力向单元状态中移除或添加信息,通过门结构来管理,包括“遗忘门”,“输出门”,“输入门”。通过门让信息选择性通过,来去除或增加信息到细胞状态. 模块中sigmoid层输出0到1之间的数字,描述了每个成分应该通过门限的程度。0表示“不让任何成分通过”,而1表示“让所有成分通过!

一个对RNN和LSTM分析比较好的连接(注意理解体会一下他说的公式)


3、激励函数:

作者这篇激励函数写的也很好(我们实际中一般遇见都是非线性问题,所以对特征做了加权线性操作需要通过非线性的激励函数做非线性的变换)

激励函数选择


4、BP的反向推导(详细参考)(参考2

神经网络图 输入输出变量 推导公式

相关文章

  • 算法基础知识(全连接层、LSTM、激励函数)

    1、全连接层作用: 全连接的一个作用是维度变换,尤其是可以把高维变到低维,同时把有用的信息保留下来。 全连接另一个...

  • 全连接层

    前言 就是把前面实现的BP神经网络封装成层 代码

  • 理解机器学习中的激励函数

    激励函数( activation function)一般用于神经网络的层与层之间,上一层的输出通过激励函数的转换之...

  • 全连接层与 softmax

    全连接层 一维 一般常见的是这种一维的全连接层,下面这种图就很常见。全连接层,通俗的说就是前面一层的每个单元都与后...

  • 全连接层&卷积层

    1.全连接层可以视作一种特殊的卷积 考虑下面两种情况: 特征图和全连接层相连:AlexNet经过五次池化后得到77...

  • 02-25:RNN算法

    RNN算法 1、RNN算法原理 (1)RNN变种GRU (2)RNN变种LSTM LSTM缺点分析: todo: ...

  • Vgg和AlexNet学习笔记

    AlexNet AlexNet包含8层,其中有五层卷积和三层全连接层,最后一个全连接层的输出传递给softmax层...

  • 基于LeNet-5模型实现MNIST手写体识别

    LeNet模型的可以分为7步: 卷积层 池化层 卷积层 池化层 全连接层 全连接层经过这7步以后得到输出结点的值,...

  • PyTorch如何确定全连接的参数

    如何确定全连接的参数 虽然目前使用全连接层的网络模型越来越少,但是仍有部分网络需要全连接层,但是如果通过CNN计算...

  • [Machine Learning From Scratch]-

    全连接层实现代码: 全连接神经网络做线性回归 一、定义前向、后向传播本文将用numpy实现全连接层的前向过程和反向...

网友评论

      本文标题:算法基础知识(全连接层、LSTM、激励函数)

      本文链接:https://www.haomeiwen.com/subject/usrdjftx.html