实习面经
2021.12.6
小红书搜索算法实习生
一面
1. 正则化
2. 经验风险最小化
3. 偏差 方差
4. dropout
5. batch normalization
6. LR 和 SVM 有什么区别
7. SVM 中核函数的缺点
8. 是否对python有了解
算法题:
最长递增子序列
反问:无...(第一次面试不太懂)
二面:
介绍论文
sigmoid函数(导数、值域)
问了一个深度学习的模型,(没听清)
RF 和 GBDT 如何训练的
算法题 :
区间DP
算法题最后写了,面试官说结果有问题,时间用了蛮久的,最后没时间再调 bug 了
反问:我今天的面试还有机会嘛,面试官反问我你对深度学习有哪些了解,回答了一些推荐系统方向和深度学习结合的内容,面试官让我加他微信
凉凉~
~~~~~~~~~~~~~~~~~~~~~~~~~~~~·~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
Moka 面试
一面:
面试体验最好的一次面试了,面试官先自我介绍了一下,并和我确认了一下我要投的岗位
自我介绍
论文
什么情况下用贝叶斯网络分类器会好一些
有哪些方法可以使模型变得不稳定(Adaboost、bagging、RF)
GBDT
残差
介绍一个我熟悉的深度学习模型 (word2vec)
讲讲 word2vec 的发展
算法题:最长递增子序列
最后面试官像我介绍了他们公司在做的东西,以及如果我去可以一起参加深度学习的比赛
二面:
介绍论文
询问了 CF 和 FM
后面就是聊天了,介绍组内的情况
最后面试官直接让我加微信
面试结束直接就通过了,大概率会去这里实习了
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
360面试
一面:
4道算法题:思维题,背包,链表合并
GBDT
GBDT 和 bagging 的区别
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
Metaapp
体验最差的一次面试了吧,先不说面试官迟到10多分钟,进来后前半程面试他一直在走动,后半程趴着面试,露个眼.......只能说真大牛,NB
介绍推荐系统
矩阵分解的方法
介绍论文
如何衡量2个分布的近似程度
交叉熵
KL散度与交叉熵的关系