美文网首页halcon视觉专栏
halcon第十七讲,神经网络

halcon第十七讲,神经网络

作者: 青莲居士_村长 | 来源:发表于2022-01-04 17:13 被阅读0次

    一、神经网络是什么

    1. 神经网络起源于对生物神经元的研究,如下图所示生物神经元包括细胞体、树突、轴突等部分。
    2. 树突是用于接收输入信息,输入信息经过突触处理,当达到一定条件时通过轴突传出,此时神经元处于激活状态。
    3. 没有达到相应条件,神经元处于抑制状态。

    [图片上传中...(image-432d8f-1641287520063-0)]

    1. 人工神经元又称为感知机,如下图所示。输入经过加权和偏置后,由激活函数处理后决定输出。
      [图片上传中...(image-920083-1641287528230-0)]
    2. 生物神经元和人工神经元对应关系如下:

    <colgroup><col style="width: 310px;"><col style="width: 310px;"></colgroup>
    |

    生物神经元

    |

    人工神经元

    |
    |

    细胞核

    |

    神经元

    |
    |

    树突

    |

    输入

    |
    |

    轴突

    |

    输出

    |
    |

    突触

    |

    权重

    |

    1. 由大量的人工神经元互相连接而形成的复杂网络结构成为人工神经网络(Artificial Neural Network, ANN)

    二、神经网络的相关概念

    1. 输入层、隐含层、输出层
    • 一般的神经元网络包含以下几个部分,输入层、隐含层和输出层。下图是一个含有隐层的神经网络,隐层的层数越多,隐层的节点数目越多,在非线性的激活函数下,神经网络就可以学习更深层次的特征。

    [图片上传中...(image-269e67-1641287555263-8)]

    1. 激活函数
    • 激活函数是神经网络设计核心单元,激活函数是用来加入非线性因素的,因为线性模式的表达能力不够。激活函数需要满足一下几个条件:
    1. 非线性(如果激活函数是线性的,那么不管引入多少隐层,其效果和单层感知机没有任何差别)

    2. 可微信(训练网路时使用的基于梯度的优化方法需要激活函数必须可微)

    3. 单调性(单调性保证了神经网络模型简单)

    4. 权重和偏置

    [图片上传中...(image-ba78ce-1641287555263-7)]

    • 如上图所示,假设神经元输入是X = [x1,x2,x3],权重为w,偏置为b, 那么其输出为:

    [图片上传中...(image-5dedce-1641287555263-6)]

    • 可以看出,w,b会影响感知机的输出结果,正是因为此神经网络在迭代过程中修改的是权重w和偏置b。
    1. 损失函数
    • 损失函数(loss function)也叫代价函数(cost function)。是神经网络优化的目标函数,神经网络训练或者优化的过程就是最小化损失函数的过程(损失函数值小了,对应预测的结果和真实结果的值就越接近)。损失函数也有很多种,拿常用的交叉熵损失函数举例,其单个样本二分类的损失函数公式如下:

    [图片上传中...(image-d4aadb-1641287555263-5)]

    • 当样本标签为1时,

    [图片上传中...(image-eef949-1641287555263-4)]

    • ,此时希望损失函数尽量的小,那么

    [图片上传中...(image-fcd341-1641287555263-3)]

    • 就要接近1;
    • 当样本标签为为0时,

    [图片上传中...(image-d0711b-1641287555263-2)]

    • ,此时希望损失函数尽量的小,那么

    [图片上传中...(image-a37d38-1641287555263-1)]

    • 就要接近0。

    [图片上传中...(image-eb49a1-1641287555263-0)]

    1. 反向传播(Back Propagation,BP)算法
    • BP算法分为正向传播和误差的反向传播两个部分。
    • 正向正向传播时,输入样本从输入层进入网络,经隐层逐层传递至输出层,如果输出层的实际输出与期望输出(导师信号)不同,则转至误差反向传播;如果输出层的实际输出与期望输出(导师信号)相同,结束学习算法。
    • 反向传播时,将输出误差(期望输出与实际输出之差)按原通路反传计算,通过隐层反向,直至输入层,在反传过程中将误差分摊给各层的各个单元,获得各层各单元的误差信号,并将其作为修正各单元权值的根据。这一计算过程使用梯度下降法完成,在不停地调整各层神经元的权值和阈值后,使误差信号减小到最低限度。
    • 权值和阈值不断调整的过程,就是网络的学习与训练过程,经过信号正向传播与误差反向传播,权值和阈值的调整反复进行,一直进行到预先设定的学习训练次数,或输出误差减小到允许的程度。
    1. 如图所示,其中蓝色为正向传播,红色为反向传播,反向传播的导数为损失函数对各变量求导。

    相关文章

      网友评论

        本文标题:halcon第十七讲,神经网络

        本文链接:https://www.haomeiwen.com/subject/sxzqcrtx.html