学习日志(七):卷积、互相关和池化

卷积与互相关

  现在大部分的深度学习教程中都把卷积定义为图像矩阵和卷积核的按位点乘。实际上,这种操作亦应该是互相关(cross-correlation),而卷积需要把卷积核顺时针旋转180度然后再做点乘。如果卷积核是对称的那二者的计算就是一样的。
卷积:
在这里插入图片描述
互相关:
在这里插入图片描述
  卷积不同于矩阵乘法,却类似向量内积,这里是两个相同大小的矩阵的“点乘”。矩阵乘法的结果还是俩个矩阵,而卷积虽然在运算规则上和矩阵乘法一样都是对位相乘,但最终是得到了中心位置的加权值,是一个数。

池化

  池化的本质实际上是下采样,它能够增大感受野,让卷积看到更多的信息,但是在运算处理过程中丢失了一些信息,从下图就可以很直观的看出来16个像素值经过2*2的窗口,步长为2的池化后变成了4个像素值,另外12个对于原图描述的像素值被丢失了,所以说通过池化增大感受野的前提是信息的丢失。

平均池化

在这里插入图片描述

最大池化

在这里插入图片描述
特点: 最大池化保留了纹理特征,平均池化保留整体的数据特征

参考文献:
1.卷积和互相关

猜你喜欢

转载自blog.csdn.net/weixin_44825185/article/details/106499691