神经网络激活函数Activation Function (tips)

1.introduction

引入激活函数是为了增加神经网络的非线性,没有激活函数的每层都相当于矩阵相乘。就算你叠加了若干层之后,无非还是个矩阵相乘罢了。如果不用激活函数,每一层输出都是上层输入的线性函数,无论神经网络有多少层,输出都是输入的线性组合,这种情况就是最原始的感知机(Perceptron)。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
我们决定引入非线性函数作为激励函数,这样深层神经网络表达能力就更加强大(不再是输入的线性组合,而是几乎可以逼近任意函数)。

在这里插入图片描述
❤️ https://zhuanlan.zhihu.com/p/25110450
建议使用ReLU函数,但是要注意初始化和learning rate的设置;可以尝试使用Leaky ReLU或ELU函数;不建议使用tanh,尤其是sigmoid函数。

猜你喜欢

转载自blog.csdn.net/qq_40590753/article/details/86562668