第六篇被我误删了,csdn这点很不好,恢复还得经过管理权限。。。
也不打算重写了,反正也没人看也是我自己看当作复习用哈哈哈。
然后呢今天是正则化
一:过拟合问题
如果我们有太多的特征,然后假设的函数非常好的拟合了每一个数据使得代价函数的值趋于0,但是此函数却不能泛化于新的预测,称之为过拟合。(同样与此相对的有欠拟合)
图中第一个为欠拟合(underfitting)第三个为过拟合(overfitting)
对于此问题我们也有解决办法
1:减少特征数量
2:正则化(保存所有的特征,但是要去减少参数
的值或者范围)
为了使得参数的范围变小防止过拟合问题,此时的代价函数将变为:
所以正则化后的梯度下降为
repeat{
}
正规方程则变为:
最后一个为logistic回归的在正则化
与梯度下降相同只是
然后这里的代价函数变为了:
机器学习&Day7
猜你喜欢
转载自blog.csdn.net/qq_42496432/article/details/81777203
今日推荐
周排行