25 减少可避免的偏差 (25 Techniques for reducing avoidable bias)

如果学习算法偏差比较大,并且这些偏差是可避免的,你就可以尝试下面的技术:

  • 扩大模型: (比如增加网络层数或者神经元数量):这种技术可以让你的模型更好的拟合训练集,所以可以减少偏差。如果这种技术同时增加了方差,那么使用正则化技术可以消除增加的方差。

  • 通过误差分析获得的灵感来修改输入特征:假如你经过误差分析获得灵感:添加额外的特征可以帮助算法消除特定种类的误差。(具体在下一节中讨论。)新的特征可以对偏差和方差均有好处。理论上,增加特征会增加方差;如果是这样的话,使用正则化将会消除增加的方差。

  • 减少或者停止正则化:(L2正则化,L1正则化,dropout)这种方式会减少可避免的偏差,但是增加方差。

-修改模型结构:(比如网络结构)使模型结构更加适合解决相应问题。这种技术会同时影响偏差和方差。

一种没有什么用处的方法:

-增加训练数据:这种技术对方差问题比较有用,但是不太会影响到偏差。

猜你喜欢

转载自blog.csdn.net/weixin_35576881/article/details/80311703
25