卷积神经网络架构中牵涉到几个概念:卷积、激活函数、池化、全连接。
卷积,卷积是将原始图像与一个设计好的矩阵(一般称为滤波器)按位相乘,这样就会得到一个新的矩阵。举个例子,假设我们要识别老鼠的尾巴,我们可以设计如下图类似的滤波器。
接来下,开始进行卷积——原图与滤波器按位相乘
。当识别到老鼠尾巴时,会得到一个很大的卷积值。
反之,当识别到的不是老鼠尾巴部位时,卷积结果将会很小,甚至为0。
激活函数,激活函数也通常被称作核函数,可以将非线性可分类
型映射为线性可分。例如,下图中就可以使用abs(绝对值函数)作为激活函数,将蓝色与红色点线性分开。不过,分类问题一般使用softmax作为激活函数。
全连接,全连接是一种代价极高的操作,卷积神经网络中使用了局部参数共享
以及池化技术来改善这一过程。局部参数共享,从下图中可以看出,随着层数越深,g3受到x1~x5的影响。
池化,另一个重要技术为池化,它可以在一定程度上识别不同程度漂移
的图片。比如,一张人脸在正中间的图片,和人脸位于图像左侧(或右侧)的图片,对于卷积神经网络来说是几乎无区别的。
References:
[1] Ian, Goodfellow, Yoshua, Bengio. 深度学习[M]. 北京:人民邮电出版社, 2017.
[2] 能否对卷积神经网络工作原理做一个直观的解释?
©qingdujun
2018-6-9 于 北京 怀柔