机器学习(一)——K-近邻(KNN)算法
机器学习(二)——K-均值聚类(K-means)算法
机器学习(三)—支持向量机
机器学习(四)—决策树
机器学习(五)—朴素贝叶斯
机器学习(六)— logistic回归
机器学习(七)—回归
机器学习(八)—Apriori算法
各种算法的优缺点及适用范围
优点 | 缺点 | 适用数据类型 | |
KNN | 精度高、对异常值不敏感 | 计算复杂度高 空间复杂度高 |
数值型 标称型 |
K-menas | 容易实现 | 可能收敛到局部最小, 在大规模数据集上收敛较慢 |
数值型 |
SVM | 泛化错误率地,计算开销不大,结果易解释 | 对参数调节和核函数的选择敏感,原始分类器不加修改仅适用于处理二类问题 | 数值型 标称型 |
决策树 | 计算复杂度不到,输出结果易于理解,对中间值的缺失不敏感,可以处理不相关的数据特征 | 可能会产生过度匹配问题 | 数值型 标称型 |
朴素贝叶斯 | 在数据较少的情况下仍然有效,可以处理多类别问题 | 对于输入数据的准备方式较为敏感 | 标称型 |
逻辑回归 | 计算代价不高,易于理解和实现 | 容易欠拟合,分类精度不高 | 数值型 标称型 |
线性回归 | 结果易于理解,计算上不复杂 | 对非线性的数据拟合不好 | 数值型 标称型 |
Apriori | 容易编码实现 | 在大数据集上可能较慢 | 数值型 标称型 |