卷积操作本身的定义是“死”的,但在不同的应用场景里,对卷积计算过程的理解可以是多种多样的。
在神经网络的背景下,对卷积的一个过程化的理解是,用一个函数按照顺序逐步“滑动”过另一个函数进行相应计算(高斯),这里我们从连续/离散信号的角度来认识不同的卷积操作对信号产生的影响:
数字化的离散信号:
考虑计算机内自然存储的所有有理数(自然地扩展到良性定义的可数概率论上):
卷积操作的对象是两个(相同或不同的)信号上。通常在采样并在计算机中自然地离散化存储之后被转换为两个数组之间的某种操作(线性?)
注:区别于别的数据结构,数组中涉及元素的个数和唯一顺序,故同一个数组经过不同的数组内部等长操作,得到的卷积结果也会有不同
一个最特殊的例子是等长的两个相同的数组:
相同的长度决定他们有相同的index区间:用随机变量来表示
两个数组之间做卷积意味着两个数组的index按照组合的形式相加,得到的新数组按照这种方式生成的新index 升序排列,其值为对应新index下所有组合方式的对应的 value 相乘相加
如果在概率空间中的sample space(event space?)相同(但可以有不同的probability function),这
卷积,FFT,多项式相乘:
Algorithm