机器学习总结

    机器学习中一般怎么衡量模型效果?auc值怎么理解?解答
    怎么衡量两个分布的差异?KL散度和交叉熵损失有什么不同?解答
    为什么会发生过拟合?/那如何降低过拟合?解答
    样本不平衡 解答

    泛化误差如何产生,有哪些方法可以减小?解决
    生成模型和判别模型 解答
    高斯混合模型以及参数估计过程 解答
    解释一下什么是凸函数 解答
    维度灾难是什么,解决方法有哪些 解答
    假设检验 解答
    bayes公式 解答
正则化面经
    正则化
    岭回归和Lasso
    方差和偏差的概念

线性回归面经1
逻辑回归面经1
逻辑回归面经2
逻辑回归面经3
特征共线
    怎么理解最大似然估计? 解答
    逻辑回归损失函数和求导
    逻辑回归损失函数可以用mse吗?解答
    逻辑回归多分类的目标函数是什么?
    逻辑斯蒂回归里面,输出的那个0-1之间的值,是概率值吗? 解答 你看它又叫对数几率回归,怎么理解几率这个概念 解答
    逻辑回归建模,如果只有9个正样本,一个负样本,那么有一列特征,这个特征对于的权重是正还是负?
    逻辑回归在二分类中用到了sigmoid函数,多分类中是softmax函数,当softmax函数用于二分类问题的时候,这两个的区别?解答
    直接用Softmax函数进行多分类和用sigmoid的函数二分类组合进行多分类的区别,各自适用于怎么样的场景 解答

决策树面经1
    决策树,节点划分有哪些方法,如何剪枝?
    写出信息增益的表达式,信息增益与信息增益率介绍一下 解答
    CART了解吗?怎么做回归和分类的?解答

SVM面经1
    介绍一下SVM,优化为什么要用对偶?
    SVM和lr的异同点 解答
    Svm核函数可以用哪些;
    SVM 需不需要做 normalization? 解答
    SVM有什么优点?优化方法?

    bagging和boosting 解答
解答
    bagging里面树的深度和boosting里面的不同,为什么
    boosting和bagging哪个减少方差哪个减少偏差?为什么?

    PCA 解答
    k-means算法和高斯混合模型的关系 解答

    0、1稀疏数据适合随机森林吗?为什么不适合?解答 解答
    随机森林里面的两个随机,随机森林为什么是减小方差 解答 解答
    树模型对离散特征怎么处理的,可以做哪些特征工程?
    树模型怎么决定一个叶子结点是否要分裂 解答

xbdt面经
    比较下随机森林和GBDT 解答
    lightgbm和xgboost的区别 解答
    GBDT使用的什么树?回归树怎么做分类? 解答
    XGBoost的并行化思想体现在哪里?哪些地方可以并行,哪些地方不可以并行?解答
    Xgboost 的 loss 函数有什么特点,与其他树模型有什么区别
    xgb,gbdt,RF区别与联系
    xgboost正则化项和什么有关 解答
    树模型对缺失值如何处理 解答 Xgboost怎么衡量特征重要性?
    XGBoost是怎么选择最优分裂点的
    Xgboost的应该着重调哪些参数 解答
    GBDT可以并行吗?解答

[机器学习优化算法]面经(https://zhuanlan.zhihu.com/p/67281656)

posted @ 2021-06-20 21:09  LuckPsyduck  阅读(110)  评论(0编辑  收藏  举报