美文网首页
NetWork神经网络算法

NetWork神经网络算法

作者: 遇见百分百 | 来源:发表于2018-05-17 10:57 被阅读0次

1、背景

    1.1以人脑中的神经网络启发,历史上出现很多不同的版本

    1.2最著名的算法为backpropagation

2、多层向前神经网络(Multilayer Feed-Forward Neural Network

    2.1 Backpropagation被使用在多层向前神经网络上

     2.2 多层向前神经网络由以下部分组成:

           输入层(input layer), 隐藏层 (hidden layers), 输入层 (output layers)

    2.3、每层由units单元组成

    2.4、输入层(input layer)是由训练集

    2.5、经过链接节点的权重传入到下一层,一层的输出作为下一层的输入

    2.6、隐藏层的个数可以是任意的,输入层有一层,输出层有一层

    2.7、每个单元也可以被作为神经元,根据生物学来源定义

    2.8、以上为2层神经网络

    2.9、一层中加权求和然后,根据非线性方程转化输出

    2.10、作为多层向前神经网络,理论上,如果有足够多的隐藏层(hidden layers) 和足够大的训练集, 可以模拟出任何方程。

3、神经网络的结构

    3.1 使用神经网络训练数据之前,必须确定神经网络的层数,以及每层单元的个数

     3.2 特征向量在被传入输入层时通常被先标准化(normalize)到0和1之间 (为了加速学习过程)

     3.3 离散型变量可以被编码成每一个输入单元对应一个特征值可能赋的值

          比如:特征值A可能取三个值(a0, a1, a2), 可以使用3个输入单元来代表A。

                    如果A=a0, 那么代表a0的单元值就取1, 其他取0;

                    如果A=a1, 那么代表a1de单元值就取1,其他取0,以此类推

     3.4 神经网络即可以用来做分类(classification)问题,也可以解决回归(regression)问题

          3.4.1 对于分类问题,如果是2类,可以用一个输出单元表示(0和1分别代表2类)

                                         如果多余2类,每一个类别用一个输出单元表示

                   所以输入层的单元数量通常等于类别的数量

          3.4.2 没有明确的规则来设计最好有多少个隐藏层

                    3.4.2.1 根据实验测试和误差,以及准确度来实验并改进

4、交叉验证方法(cross-validation)

k-fold cross validation

5. Backpropagation算法

     5.1 通过迭代性的来处理训练集中的实例

     5.2 对比经过神经网络后输入层预测值(predicted value)与真实值(target value)之间

     5.3 反方向(从输出层=>隐藏层=>输入层)来以最小化误差(error)来更新每个连接的权重(weight)

     5.4 算法详细介绍

           输入:D:数据集,l 学习率(learning rate), 一个多层前向神经网络

           输入:一个训练好的神经网络(a trained neural network)

          5.4.1 初始化权重(weights)和偏向(bias): 随机初始化在-1到1之间,或者-0.5到0.5之间,每个单元有 一个偏向

          5.4.2 对于每一个训练实例X,执行以下步骤:

                    5.4.2.1: 由输入层向前传送

6. Backpropagation 算法举例

算法实现:

相关文章

网友评论

      本文标题:NetWork神经网络算法

      本文链接:https://www.haomeiwen.com/subject/xdlpdftx.html