美文网首页
CNN:卷积神经网络-通俗理解

CNN:卷积神经网络-通俗理解

作者: 北山学者 | 来源:发表于2017-12-27 10:38 被阅读0次

卷积神经网络(Convolutional Neural Network, CNN)是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,对于大型图像处理有出色表现。

神经网络由大量的神经元相互连接而成。每个神经元接受线性组合的输入后,最开始只是简单的线性加权,后来给每个神经元加上了非线性的激活函数,从而进行非线性变换后输出。每两个神经元之间的连接代表加权值,称之为权重(weight)。不同的权重和激活函数,则会导致神经网络不同的输出。

常用的非线性激活函数有sigmoid、tanh、relu等等,前两者sigmoid/tanh比较常见于全连接层,后者relu常见于卷积层。这里先简要介绍下最基础的sigmoid函数。

卷积关系最重要的一种情况,就是在信号与线性系统或数字信号处理 中的卷积定理。利用该定理,可以将时间域或空间域中的卷积运算等价为频率域的相乘运算,从而利用FFT等快速算法,实现有效的计算,节省运算代价。

参考
1、CNN笔记:通俗理解卷积神经网络
2、最容易理解的对卷积(convolution)的解释
3、[笔记]ACM笔记 - 利用FFT求卷积(求多项式乘法)
4、快速傅立叶变换FFT 原理:利用多项式点值求积的便捷性
5、多项式乘法与快速傅里叶变换
6、FFT算法学习笔记
7、多项式相乘快速算法原理及相应C代码实现
8、[CV] 通俗理解『卷积』——从傅里叶变换到滤波器

相关文章

网友评论

      本文标题:CNN:卷积神经网络-通俗理解

      本文链接:https://www.haomeiwen.com/subject/rvzegxtx.html