机器学习面试—决策树

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/ZK_J1994/article/details/81292485
  • 决策树工作流程(选择最佳属性P;选择P上的最佳划分节点)

 

  • ID3(分类树;划分节点:信息增益;类别变量)

 

  • C4.5(分类树;划分节点:信息增益率;类别变量+连续值)

 

  • CART(分类回归树;划分节点:分类是基尼指数,回归是均方误差;类别变量+连续值)

 

  • 决策树连续值处理(离散化)

 

  • 决策树过拟合(剪枝:预剪枝+后剪枝;max_depth)

 

  • 决策树缺失值(经典决策树;随机森林;xgboost)

 

  • 决策树优缺点(可解释性;对异常值不敏感,鲁棒性;特征选择;并行化;非线性表达能力;伸缩不变性,特征归一化;缺失值;不适用稀疏特征;不具有平滑性,回归只能输出若干个有限的预测值)

 

  • 分类树与回归树的区别(分类树选择最优划分属性:信息增益,信息增益率,基尼指数;回归树选择最优划分属性:方差;分类树划分节点:信息增益,信息增益率,基尼指数;回归树划分节点:均方误差)

 

参考文献

分类树与回归树的区别

猜你喜欢

转载自blog.csdn.net/ZK_J1994/article/details/81292485