深度学习-常用神经网络

作者: 翁支和 | 来源:发表于2018-01-01 10:48 被阅读205次
    前馈神经网络

    前馈神经网络是一个在神经元连接之间无环的人工神经网络。数据流向从输入层开始,经过隐藏层(如果有的话),最后在输出层输出。

    种类

    • 单层感知器(Single-Layer Perceptron)
      输入值经过一系列的权重计算后输出 。通过给输出添加一个Logistic激活函数,该模型与传统的Logistic回归模型相同。
    • 多层感知机(Multi-Layer Perceptron)
      这类网络由多层计算单元组成,通常以前馈方式相互连接。一层中的每个神经元都与后续层的神经元有连接 。在许多应用中,这些网络的单元将sigmoid函数用作激活函数。
    长短期记忆网络(LSTMs)-- 推荐文章

    长期短期记忆 - 这是一种循环型神经网络(RNN),允许数据在网络中向前和向后流动。


    LSTM适合于处理和预测时间序列中间隔和延迟非常长的重要事件,隐马尔可夫模型和其他序列学习方法给LSTM带来了优势 。

    生成对抗网络(GANs)--推荐文章

    GANs或Generative Adversarial Networks是在无监督机器学习中使用的一类人工智能算法,由两个神经网络在零和游戏框架中相互竞争的系统实现 。


    自动编码器(Auto-Encoders)--推荐文章推荐文章

    是一种人工神经网络,用于高效编码的无监督学习。


    自动编码器的目的是学习一组数据的表示(编码),通常用于降维。 近来,自动编码器概念已经越来越广泛地应用于数据生成模型的学习当中。

    卷积神经网络(CNN)--推荐文章推荐文章

    他们在图像和视频识别,推荐系统和自然语言处理方面有应用 。



    图片数据输入-->卷积-->池化(子采样)-->再卷积-->再池化(子采样)-->……-->全连接-->输出

    循环神经网络(RNNs)--推荐文章

    是一类人工神经网络,单元之间的连接形成一个有向循环。这使得它可以表现出动态的时间行为。与前馈神经网络不同 ,RNN可以使用其内部存储器来处理任意输入序列。



    这使得它们适用于诸如不分段,连接手写识别或语音识别等任务。

    递归神经网络(RNNs)--推荐文章

    是一种通过在一个结构上递归及应用相同一组权重来创建的深度神经网络,通过遍历给定拓扑顺序的结构,对可变大小的输入结构产生结构化的预测或标量预测。


    在自然语言处理中,RNNs已经成功地用于学习序列和树结构 ,主要是基于词嵌入的短语和句子连续表示 。

    [深度]强化学习 -- 推荐文章推荐文章

    强化学习是智能系统从环境到行为映射的学习,以使奖励信号(强化信号)函数值最大,强化学习中由环境提供的强化信号是对产生动作的好坏作一种评价(通常为标量信号)

    它的原理是:如果Agent的某个行为策略导致环境正的奖赏(强化信号),那么Agent以后产生这个行为策略的趋势便会加强。Agent的目标是在每个离散状态发现最优策略以使期望的折扣奖赏和最大。


    其他参考文章

    深度学习思维导图

    相关文章

      网友评论

        本文标题:深度学习-常用神经网络

        本文链接:https://www.haomeiwen.com/subject/ongggxtx.html