机器学习 面试常见问题

(1)SVM/LR/GBDT/EM的原理以及公式推导

(2)RF和GDBT的区别;GDBT,XGBOOST的区别,从底层原理去分析

(3)决策树处理连续值方法

(4)解释一下原问题和对偶问题

(5)什么是过拟合,以及解决方案

(6)什么是正则项,L1范式,L2范式区别是什么,各自用在什么地方?

(7)判别模型与生成模型的本质区别是什么

(8)解释一下CNN

(9)解释局部相关性

(10)解释核函数,解释高维映射

(11)深度学习中防止过拟合的方法

(12)dropout为什么能防过拟合

(13)介绍一下batch normalization

(14)用代码写出Logistic regression的损失函数,并提问了这个损失函数如何推导出的。

(15)问ridge和lasso有什么区别,l2范数为什么能防止过拟合,l1范数为什么能让权重稀疏

(16)手写kmeans

(17)k近邻算法k的选择对结果的影响?

(18)偏倚方差分解,以k近邻为例,分析k的变化对偏倚方差的影响?

(19)解释 word2vec 的原理以及哈夫曼树的改进;

(20)在模型的训练迭代中,怎么评估效果;

(21)em 与 kmeans 的关系;

(22)梯度下降的优缺点;

(23)常见分类模型( svm ,决策树,贝叶斯等)的优缺点,适用场景以及如何选型;

posted on 2017-07-13 22:38  Beserious  阅读(303)  评论(0编辑  收藏  举报