现在很大的可能就是历史的累积。
虽然以前读的是数学,但是在信号与系统的课程里面经常讲到卷积(convolution)
。至于最近大火的深度学习,更有专门的卷积神经网络(Convolutional Neural Network, CNN),在图像领域取得了非常好的实际效果,已经把传统的图像处理的方法快干趴下了。说了这么多卷积,其实很好理解。不过最近在网上查了下其他的理解,发现解释的很生动,我在这里简单总结下。
在物理上的理解就是:
在线性时不变的系统中,输出信号:就是输入信号
在每个位置加权
单位响应的叠加和
。
举个例子,在2015中国计算机大会特邀报告上,中国人工智能学会理事长李德毅院士的主题报告。在报告中提到了卷积的理解问题,非常有意思[4]。
他讲到,什么叫卷积呢?举例来说,在一根铁丝某处不停地弯曲,假设发热函数是f(t) ,散热函数是 g(t) ,此时此刻的温度就是 f(t) 跟g(t)的卷积。在一个特定环境下,发声体的声源函数是f(t) ,该环境下对声源的反射效应函数是 g(t) ,那么这个环境下的接受到声音就是 f(t) 和 g(t) 的卷积。
参考
1、卷积矩阵及其运算实例
2、二维卷积的基本原理
3、如何通俗易懂地解释卷积?
4、卷地风来忽吹散,积得飘零美如画(深度学习入门系列之十)
网友评论