总结了我学习深度学习过程中接触到的比较好的讲解和我自己的一些理解。
一、杂谈
二、机器学习基础
1、逻辑回归和SVM的区别是什么?个适用于解决什么类型的问题?
5、各种机器学习的应用场景分别是什么?例如,k近邻,贝叶斯,决策树,svm,逻辑斯蒂回归和最大熵模型。
8、为什么说bagging是减少variance,而boosting是减少bias?
9、基于树的adaboost和Gradient Tree Boosting区别?
10、机器学习算法中 GBDT 和 XGBOOST 的区别有哪些?
11、为什么在实际的 kaggle 比赛中 gbdt 和 random forest 效果非常好?
16、线性分类器和非线性分类器
17、如何理解希尔伯特空间
三、深度学习基础
花书(Deep learning)和 解析卷积神经网络-深度学习时间手册
3、CNN(卷积神经网络)、RNN(循环神经网络)、DNN(深度神经网络)的内部网络结构有什么区别?
7、sgd有多种改进的形式(rmsprop,adadelta等),为什么大多数论文中仍然用sgd?
8、你有哪些deep learning(rnn、cnn)调参的经验?(1)
8、炼丹技巧(2)
9、Adam那么棒,为什么还对SGD念念不忘 (1) —— 一个框架看懂优化算法
10、Adam那么棒,为什么还对SGD念念不忘 (2)—— Adam的两宗罪
11、全连接层的作用是什么?
12、深度学习中 Batch Normalization为什么效果好?
13、为什么现在的CNN模型都是在GoogleNet、VGGNet或者AlexNet上调整的?
14、Krizhevsky等人是怎么想到在CNN里用Dropout和ReLu的?
18、深度学习中 Batch Normalization为什么效果好?
20、Must Know Tips/Tricks in Deep Neural Networks
21、 Roofline Model与深度学习模型的性能分析
补充重点:
一、机器学习
1、逻辑回归,SVM,决策树
2、主成分分析,奇异值分解
3、随机森林,GBDT, 集成学习
二、深度学习
1、卷积神经网络,循环神经网络,LSTM与GRU,梯度消失与梯度爆炸,激活函数,防止过拟合的方法,dropout,batch normalization,各类经典的网络结构,各类优化方法
三、建议
在大多数情况下,你能拿到什么样的offer,其实已经被你的简历决定了。如果平时没有积累相关的经历和成果,很难只靠面试表现就拿到非常好的offer。所以建议大家平时积累算法岗所看重的一些干货。
下面几点算是找AI相关工作的加分项:
(1)一作的顶级会议论文
(2)AI领域知名公司的实习经历(长期实习更好)
(3)相关方向有含金量的项目经历
(4)计算机视觉竞赛,数据挖掘竞赛的获奖或者优秀名次。现在这类竞赛太多了,就不具体列了。
(5)程序设计竞赛的获奖(例如OI/ACM/topcoder之类的)