多重共线性是使用线性回归算法时经常要面对的一个问题。在其他算法中,例如决策树或者朴素贝叶斯,前者的建模过程时逐渐递进,每次都只有一个变量参与,这种机制含有抗多重共线性干扰的功能;后者假设变量之间是相互独立的。但对于回归算法来说,都要同时考虑多个预测因子,因此多重共线性不可避免。
我们先来看共线性的原理,假设k个自变量的多元线性回归模型:
y=θ0+θ1x1+...+θkxk=θTx+ϵ
ϵ∼N(0,σ2)
利用最小二乘法可得到参数的估计为:
θ^=X†y=(XTX)−1XTy如果X不是满秩的话,会有无穷多个解。如果变量之间存在共线性,那么X近乎是不满秩的,
XTX近乎是奇异的。
我们从统计学的角度来看:
Var(θ^−θ)=Var[(XTX)−1XTϵ]
Var(θ^)=σ2(XTX)−1
Var(θ^i)=(n−1)Var(xj)σ2⋅1−Ri21如果方差膨胀因子
1−Ri21很大时,也就是
Ri2趋向于1时,方差会变得异常大。
解决方法如下:
- PCA等降维方法。因为在原始特征空间中变量之间相关性大,很容易想到通过降低维度的形式来去除这种共线性。
- 正则化。使用岭回归(L2)或者lasso回归(L1)或者elasticnet回归(L1+L2)
- 逐步回归法