理解:L1正则先验分布是Laplace分布,L2正则先验分布是Gaussian分布

转自:https://blog.csdn.net/m0_38045485/article/details/82147817

L1、L2正则化来源推导
L1L2的推导可以从两个角度:

带约束条件的优化求解(拉格朗日乘子法)
贝叶斯学派的:最大后验概率
1.1 基于约束条件的最优化
对于模型权重系数w的求解释通过最小化目标函数实现的,也就是求解:

首先,模型的复杂度可以用VC来衡量。通常情况下,模型VC维与系数w的个数成线性关系:即:

w数量越多,VC越大,模型越复杂

为了限制模型的复杂度,我们要降低VC,自然的思路就是降低w的数量,即:

让w向量中的一些元素为0或者说限制w中非零元素的个数。我们可以在原优化问题上加入一些优化条件:

其中约束条件中的||w||0是指L0范数,表示的是向量w中非零元素的个数,让非零元素的个数小于某一个C,就能有效地控制模型中的非零元素的个数,但是这是一个NP问题,不好解,于是我们需要做一定的“松弛”。为了达到我们想要的效果(权重向量w中尽可能少的非零项),我们不再严格要求某些权重w为0,而是要求权重w向量中某些维度的非零参数尽可能接近于0,尽可能的小,这里我们可以使用L1L2范数来代替L0范数,即:

注意哈:这里使用L2范数的时候,为了后续处理(其实就是为了优化),可以对进行平方,只需要调整C的取值即可。

然后我们利用拉式乘子法求解:

其中这里的是拉格朗日系数,>0,我们假设的最优解为,对拉格朗日函数求最小化等价于:

上面和

等价。所以我们这里得到对L1L2正则化的第一种理解:

L1正则化  在原优化目标函数中增加约束条件

L2正则化  在原优化目标函数中增加约束条件

1.1 基于最大后验概率估计
在最大似然估计中,是假设权重w是未知的参数,从而求得对数似然函数(取了log):

从上式子可以看出:假设的不同概率分布,就可以得到不同的模型。

若我们假设:

的高斯分布,我们就可以带入高斯分布的概率密度函数:

上面的C为常数项,常数项和系数不影响我们求解的解,所以我们可以令

我们就得到了Linear Regursion的代价函数。

在最大化后验概率估计中,我们将权重w看做随机变量,也具有某种分布,从而有:

同样取对数:

可以看出来后验概率函数为在似然函数的基础上增加了logP(w),P(w)的意义是对权重系数w的概率分布的先验假设,在收集到训练样本{X,y}后,则可根据w在{X,y}下的后验概率对w进行修正,从而做出对w的更好地估计。

若假设的先验分布为0均值的高斯分布,即

则有:

可以看到,在高斯分布下

的效果等价于在代价函数中增加L2正则项。

若假设服从均值为0,参数为a的拉普拉斯分布,即:

则有:

可以看到,在拉普拉斯分布下logP(w)的效果等价在代价函数中增加L1正项。

故此,我们得到对于L1,L2正则化的第二种理解:

L1正则化可通过假设权重w的先验分布为拉普拉斯分布,由最大后验概率估计导出。

L2正则化可通过假设权重w的先验分布为高斯分布,由最大后验概率估计导出。
 

猜你喜欢

转载自blog.csdn.net/loving_coco/article/details/84716378