学概率论在 特征函数 中第一次碰到卷积,一直不是很明白,下面这个文件 https://mp.weixin.qq.com/s/f_gyJAUdfNh192HR8sgdOw 说得好。从卷积的公式 (f*g)(n)=∫f(τ)g(n-τ)dτ 展开分析。
图片.png图来源:
https://mp.weixin.qq.com/s/f_gyJAUdfNh192HR8sgdOw
形象思维,f(τ),g(τ)是以τ 为横轴函数,g(τ- n)是g(τ)向右移动n 个单位,g(n-τ) = g(-(τ- n)),也就是g(τ- n)向右移动 n个单位后再沿纵轴翻转,f(τ)向右,g(n-τ)向左同时滑动,也就是τ从-∞到+∞变化,两个函数相交后与 横轴τ围和的面积(积分计算)就是是一个新的函数。这个过程维基百科上面有动态图像,非常好理解。通过两个函数f和g生成第三个函数的一种数学算子(从向量空间U到向量空间V的 任意映射,常见的微分、积分运算都是算子)。在物理空间上是一个翻转和平移运动,怎样把“卷”这个动作联系起来还是感到不是那么很好理解。折叠和平移滑动怎么“卷”的?
图片.png图片来源 https://zh.wikipedia.org/wiki/%E5%8D%B7%E7%A7%AF
卷积的计算过程是函数f(τ)乘以函数g(n-τ)后对τ进行积分,可以把g(n-τ)当成一个权重函数。这时想想卷积神经网络中,输入图像分成数字化为 mn 个像素点,对每一个像素点经过三原色拆分为三个 mn 的R、G、B(256色彩的话每一个像素点的R、G、B通道取值为整数[0.255])mn的二维表(矩阵),而不同卷积核(如一个 33 矩阵)在数字化图像上滑动滑动并通过“矩阵内积”方法得到相应的结果,卷积核其实就是一个权重因子,经过加权求和(“矩阵内积”,函数f(τ)乘以函数g(n-τ)),移动后再把加权求和结果相加(离散状态下的积分,∑看成∫),相当于单个神经元连接权重因子的卷积核在此就是g(n-τ)。整个运算过程中卷积的函数相乘、滑动平移、结果积分等都有了。
图片.png来源:https://blog.csdn.net/weixin_42451919/article/details/81381294
网友评论