《机器学习100问》一共分为三部分,分别是上篇,中篇,下篇。每一篇列出最常见的机器学习基础概念问题。(拟打算在除夕前,出一个《机器学习100答》,针对这三篇列出的问题,一一作出简要的回答。)
注:
如果只列出名词,则问题是:它的定义,推导与应用是什么?
-
感知机;
-
决策树;
-
SVM;
-
EM;
-
聚类算法;
-
降低维度算法;
-
关联规则学习;
-
GBDT;
-
随机森林;
-
PCA;
-
ROC;
-
AUC;
-
LDA;
-
常见的lost function;
-
分类算法总结;
-
分类网络或回归的区别;
-
梯度下降法的原理;
-
偏差与方差;
-
类别不平衡;
-
K-means或KNN中, 计算最近的邻居距离的方法有欧式距离和曼哈顿距离,这两种方法的区别是什么?
-
LR和SVM的区别与联系?
-
LR与线性回归的区别与联系?
-
逻辑斯蒂回归为什么要对特征进行离散化?
-
GBDT和XGBoost的区别?
-
判别模型与生成模型的区别?
-
L1与L2分别服从什么分布?
-
归一化有哪些类型?
-
哪些机器学习方法不需要做归一化?
-
决策树中的熵是什么?
-
如何计算数据集某个特征的信息增益?
-
联合概率分布与边缘概率分布;
-
条件概率的链式法则;
-
期望/方差/协方差/相关系数;
-
牛顿法与梯度下降法的区别?
-
SVM的KKT条件是什么?
-
GBDT随机森林能否并行?
-
Adam的原理;
-
交叉熵的定义;
-
如何进行特征选择?
-
数据增强的方法;
-
对缺失值敏感的有哪些模型?
-
梯度消失和梯度爆炸的原因?
-
如何解决梯度消失和梯度爆炸?
-
监督学习/非监督学习/半监督学习/弱监督学习;
-
局部最优与全局最优;
-
混淆矩阵;
-
决策树算法优缺点;
-
平移不变性;
-
如何使用二分类器来构造多分类器;
-
决策树的两种剪枝方法;
-
熵/联合熵/条件熵/相对熵/互信息的定义;
-
最大似然估计;
-
协调过滤推荐算法的过程;
-
协调过滤分几种;
-
什么是推荐准确率和召回率;
-
文本分类过程;
-
分词原理;
-
什么是前向匹配算法和后向匹配算法;
-
HMM过程;
-
Apriori;
-
奇异值分解原理;
-
FP tree;
-
贝叶斯个性化排序;
-
特征选择;
-
特征选择与降维的区别;
-
傅里叶变换;
-
交叉验证如何用在时间序列数据;
-
集成学习方法总结;
-
多重共线性;
-
如何进行大数据训练;
-
什么是方差与偏差间的均衡;
-
机器学习和深度学习的区别;
-
使用机器学习方法,完成一个有实际意义的项目(TBD)。
更多学习资料,请关注下面的公众号:不定期分享
深度学习网络总结
机器学习算法及其应用场景
算法与数据结构(leetcode 题解)
cuda编程与并行优化
其他读书分享如:《战国策》,《智囊全集》
宇宙常识科普与星座辨别等等.