机器学习_AdaBoost

AdaBoost是基于boosting的思想,通过多个弱分类器的线性组合来得到强分类器,训练时重点关注被错分的样本,准确率高的弱分类器权重大。

在训练过程中,它不改变所给的训练数据,而是不断改变训练数据权值的分布,使得被误分的数据再后一轮的分类中受到更大的关注。

同时采用加权多数表决的方法,加大分类误差率小的弱分类器的权值,使其在最后的表决中起更大的作用,减小分类误差率大的弱分类器的权值,使其在最后的表决中起较小的作用。所有弱分类器的权值之和并不为1,是通过最后结果的符号来决定事例的类别,该结果的绝对值表示分类的确信度。

AdaBoost还有另外一种理解,即可以认为其模型是加法模型、损失函数为指数函数、学习算法为前向分步算法的二类分类学习方法。

加法模型就是多个基函数线性组合得到的模型。

前向分步算法:对于加法模型,从前向后,每一步只学习一个基函数及其系数,而不是一次性学习所有的基函数,从而简化优化的复杂度。

损失函数是根据AdaBoost算法特点推导而来的。

发布了103 篇原创文章 · 获赞 37 · 访问量 4610

猜你喜欢

转载自blog.csdn.net/Rocky6688/article/details/104018767