机器学习面试题之Bagging、Boosting、Stacking

本文引自公众号数据科学家的入门数据竞赛系列(2)
干货非常多
1.什么是集成学习
在机器学习的有监督学习算法中,我们的目标是学习出一个稳定的且在各个方面表现都较好的模型,但实际情况往往不这么理想,有时我们只能得到多个有偏好的模型,也就是所谓的弱监督模型(在某些方面表现的比较好)。

集成学习就是组合多个弱监督模型以期得到一个更好更全面的强监督模型。即使用某些算法生成多个模型,再将这些模型按照某些方法组合在一起来解决某个智能问题。其潜在的思想是即便某一个弱分类器得到了错误的预测,其他的弱分类器也可以将错误纠正回来。
在这里插入图片描述

发布了12 篇原创文章 · 获赞 0 · 访问量 292

猜你喜欢

转载自blog.csdn.net/jaffe507/article/details/105005574