神经网络为什么需要随机初始化模型参数

在神经网络中,通常需要随机初始化模型参数。下面解释一下这样做的原因。

设有一个多层感知机模型,假设输出层只保留一个输出单元 o 1 o_1 ,且隐藏层使用相同的激活函数。如果将每个隐藏单元的参数都初始化为相等的值,那么在正向传播时每个隐藏单元将根据相同的输入计算出相同的值,并传递至输出层。

在反向传播中,每个隐藏单元的参数梯度值相等。因此,这些参数在使用基于梯度的优化算法迭代后值依然相等。之后的迭代也是如此。在这种情况下,无论隐藏单元有多少,隐藏层本质上只有一个隐藏单元在发挥作用。

因此,通常对神经网络的模型参数,特别是权重参数进行随机初始化。随机初始化模型参数的方法有很多,可以使用正态分布的随机初始化方式。

还有一种比较常用的随机初始化方法叫做Xavier随机初始化。假设某全连接层的输入个数为a,输出个数为b,Xavier随机初始化将使该层中权重参数的每个元素都随机采样于均匀分布 U ( 6 a + b , 6 a + b ) U(-\sqrt{\frac{6}{a+b}},\sqrt{\frac{6}{a+b}}) 它的设计主要考虑到,模型参数初始化后,每层输出的方差不该受该层输入个数影响,且每层梯度的方差也不该受该层输出个数影响。

发布了250 篇原创文章 · 获赞 9 · 访问量 7857

猜你喜欢

转载自blog.csdn.net/qq_37388085/article/details/104377568