一、数据结构等基础知识
写个归并排序,写完后说能不用辅助数组吗
写一个快排,非递归
二、机器学习算法类
1.
交叉熵,还有个什么熵不记得了
机器学习的衡量指标有什么,如何解决过拟合和欠拟合
介绍一下极大似然估计,和最大后验的区别是什么
L1和L2的区别 L1为什么能稀疏矩阵 L2为什么不能,L2为什么能解决过拟合
1.分类
决策树怎么分裂的,信息增益,信息增益率和基尼指数公式
说一下SVM,AI平台部还叫手推了公式,并且问SVM如何做回归,LR和svm的区别
SVM所有核函数的了解应用,SVM的损失函数
讲一下EM算法,E步和M步的具体步骤,E中的期望是什么(关于什么分布的期望),EM算法推导,jensen不等式确定的下界
线性回归服从什么分布(噪声高斯分布),均值方差如何定义呢,和最小二乘的关系(概率角度推导出来?)
BN的作用是什么,什么时候用BN
bagging和boosting的区别,说一下GBDT的原理,gbdt,xgboost模型的比较
手推逻辑回归,手推gbdt(主要写损失函数的负梯度公式),手推xgboost
xgboost,rf,lr优缺点场景。。。真的逢面必问
2.聚类
DBSCAN原理和算法伪代码,与kmeans,OPTICS区别
三、NLP
1.词向量
介绍下word2vec,相比简单的神经网络模型有什么优点?看过源码吗?源码里面是如何负采样的,为什么要层次化softmax,sigmod在源码里面的计算方法是什么
传统的softmax词向量模型为什么计算效率低,词嵌入应该从输入层获取还是输出层获取(因为softmax词向量模型有两个矩阵都含有词嵌入)
word2vec中,负采样相比层次化softmax,有什么优缺点?层次化softmax能保证概率归一化吗?
fasttext和textCNN说一下吧
说一些HMM和CRF,怎么做分词、标注问题(再说了下LSTM CRF,以及多目标学习等)
强化学习在NLP中有什么应用,解释一下策略梯度,reword等
文本分类的方法有哪些,深度学习和非深度学习的方法都说一下
四、深度学习
深度学习优化方法,公式
深度学习一阶优化和二阶优化的方法有哪些,基于动量的方法为什么能快速收敛,讲讲Adam优化算法
lstm和Rnn区别
梯度消失的解决办法
DNN的梯度更新方式
简述反向传播原理
sigmoid和ReLU的优劣
梯度消失问题和损失函数有关吗?
Dropout为什么能防止过拟合?
Batch Normalization有什么好处?
五、编程知识
Python进程和线程
用python现场处理数据(特征统计等),15分钟限时
C 的内存对齐,给了几个struct计算占用内存;C 纯虚函数、虚函数表说一下
六、其他类型问题(智力题、场景题、数学题等)
linux head diff等命令
linux命令:如何按照第二列从大到小排序文件
说一下 mapreduce 原理,用mapreduce实现10亿级以上数据的kmeans
概率题,抽蓝球红球,蓝结束红放回继续,平均结束游戏抽取次数
概率题:一个家庭有两个孩子,已知其中一个是女孩,求另一个也是女孩的概率
智力题:丢两个骰子,最可能出现的点数和是多少?3个骰子呢,不能枚举,面试官让快速估计
智力题:马匹赛跑 25匹马,5个跑道,没有计时器,要找出前三名,最少要比多少场,答案是7
智力题:一个人向北走了一公里,向东走了一公里,又向南走了一公里,最后回到了最开始的起点,为什么?
扣简历,问得太细了,每个项目都要回答如果再做一次,有什么改进的地方,both算法上和模型选择上