面试百度的机器学习算法,也不过如此
本文已经收录至我的GitHub,欢迎大家踊跃star 和 issues。
https://github.com/midou-tech/articles
机器学习整体难度还是有点,不过这个岗位真的是很香,钱多,发展空间足未来可期啊。
本篇文章面经是三位大佬面试百度机器学习岗位的面试题,其中两位已经拿到offer,赶紧复习起来,下一个offer就是我。
更多的面经和内推信息,请微信搜索 龙跃十二 即可获取。
一面
- 询问简历上做过的项目,以及项目细节
- 算法题:
- 二叉树中序遍历(要非递归解法)
- 两个有序链表的归并。
- 快排
- lstm 详细讲讲解
- attetion 机制
- 混淆矩阵,F1等计算
- n个人进餐馆,都把帽子挂在门口,走的时候随手拿一顶,问拿到帽子恰好是自己的人数的期望
- ML 与 DL比较
- 实习的一些问题
二面
算法题:返回二叉树中路径和为某一值的所有路径、反转句子中单词顺序
区块链比赛和专利
我惊了个呆,大佬竟然还了解区块链,准确指出了我的区块链项目和专利的不靠谱处(我也知道啊,所以我转ML了啊)
项目
这个就随便聊了聊
AUC计算
很奇怪,我面试后看了看发现给出的是正确方法,但是面试官说不对。。。
进程和线程是为什么被提出的
线程间如何通信
快排复杂度的证明
特征筛选方法
三面
- 基础数据结构和算法有哪些
- 是的你没猜错,我把课本罗列了一下,顺序表 链表 哈希表 树系列 图系列,选择插入冒泡希尔堆快速基数外部排序,就过了。。。
- 推荐类算法比较
- 机器学习算法比较
- 聊了聊区块链
已经拿到offer
这是下一位同学的面经
一面
聊项目,聊的非常细,我的项目就是比赛,面试官甚至问了我提分的过程,一开始多少分,做了哪些工作之后升到了多少分之类的;
跟过拟合有关的一些问题,详细的内容已经记不清了;
聊xgboost;
聊deepFM;
项目中用到了LSTM,为什么可以用LSTM,它的主要用处是什么,以及LSTM的梯度消失问题;
算法题:二叉树中的最长路径;
算法题:x的平方根。
二面:
聊项目;
聊GBDT;
算法题:二分查找;
算法题:最大堆的插入;
聊deepFM;
不定长文本数据如何输入deepFM,如果不截断补齐又该如何输入;
项目中为什么使用LSTM;
项目中整个过程中都做过哪些优化。
三面:
n个数中等概率抽取m个数。
三面就问了一道概率题,剩下的基本上是聊天。 总的来说面试难度不高,感觉也是我运气好吧。
这是下一位同学的面经
一面
- 给一个数组,数组的数字代表股票价格,求一次买卖的最大股票收益
- 1-n的全排列
- lstm是什么的升级?解决了什么问题?
- 讲一讲各种激活函数
- attetion 机制
- embedding的深层含义是什么
- c 的const字段有什么意义
- RF和GBDT的区别
- 为什么GBDT可以提高准确率
- 矩阵分解
二面
- 自我介绍
- 讲区块链
- 区块链中51%攻击的经济学原理
- 求树两个节点的最低公共祖先
- 讲kaggle比赛
- xgboost比gbdt的优化都有哪些
- 为什么xgboost要求二阶导数
- 泰勒展开逼近残差,二阶比一阶精度高
- 通用性,所有二阶可导的loss function都可以用
- 有些函数梯度在一阶上变化小,二阶变化大,参考牛顿法
- 为什么gbdt没有正则
- 讲项目
- 计算一下项目中DNN的参数个数
- gbdt与lr区别
- 集成为什么会提高效果
- l1 l2正则
- xgb lgb调参怎么选参数
- 贪婪搜索呗?面试官觉得不行?难道是贝叶斯参数优化?
- 怎么样在没有得到未来数据的情况下提高模型对未来预测的效果
- 讲道理我觉得这个问的非常扯淡,不就是泛化性,然后我说了一些降低方差的方法,面试官说是对未来预测的准确性,没有get到他的点,最后被说对算法的追求不够。。。。
更多的面经和内推信息,请微信搜索 龙跃十二 即可获取。