机器学习 面试常见问题
(1)SVM/LR/GBDT/EM的原理以及公式推导
(2)RF和GDBT的区别;GDBT,XGBOOST的区别,从底层原理去分析
(3)决策树处理连续值方法
(4)解释一下原问题和对偶问题
(5)什么是过拟合,以及解决方案
(6)什么是正则项,L1范式,L2范式区别是什么,各自用在什么地方?
(7)判别模型与生成模型的本质区别是什么
(8)解释一下CNN
(9)解释局部相关性
(10)解释核函数,解释高维映射
(11)深度学习中防止过拟合的方法
(12)dropout为什么能防过拟合
(13)介绍一下batch normalization
(14)用代码写出Logistic regression的损失函数,并提问了这个损失函数如何推导出的。
(15)问ridge和lasso有什么区别,l2范数为什么能防止过拟合,l1范数为什么能让权重稀疏
(16)手写kmeans
(17)k近邻算法k的选择对结果的影响?
(18)偏倚方差分解,以k近邻为例,分析k的变化对偏倚方差的影响?
(19)解释 word2vec 的原理以及哈夫曼树的改进;
(20)在模型的训练迭代中,怎么评估效果;
(21)em 与 kmeans 的关系;
(22)梯度下降的优缺点;
(23)常见分类模型( svm ,决策树,贝叶斯等)的优缺点,适用场景以及如何选型;
原文地址:http://www.cnblogs.com/pk28/
与有肝胆人共事,从无字句处读书。
欢迎关注公众号:
欢迎关注公众号: