实习面经

2021.12.6 

小红书搜索算法实习生

一面

1. 正则化

2. 经验风险最小化

3. 偏差 方差

4. dropout

5. batch normalization

6. LR 和 SVM 有什么区别

7. SVM 中核函数的缺点

8. 是否对python有了解

算法题:

最长递增子序列

 反问:无...(第一次面试不太懂)

 

二面:

介绍论文

sigmoid函数(导数、值域)

问了一个深度学习的模型,(没听清)

RF 和 GBDT 如何训练的

算法题 :

区间DP

算法题最后写了,面试官说结果有问题,时间用了蛮久的,最后没时间再调 bug 了

反问:我今天的面试还有机会嘛,面试官反问我你对深度学习有哪些了解,回答了一些推荐系统方向和深度学习结合的内容,面试官让我加他微信

 

凉凉~

~~~~~~~~~~~~~~~~~~~~~~~~~~~~·~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~

 

Moka 面试

一面:

面试体验最好的一次面试了,面试官先自我介绍了一下,并和我确认了一下我要投的岗位

自我介绍

论文

什么情况下用贝叶斯网络分类器会好一些

有哪些方法可以使模型变得不稳定(Adaboost、bagging、RF)

GBDT

残差

介绍一个我熟悉的深度学习模型 (word2vec)

讲讲 word2vec 的发展

算法题:最长递增子序列

最后面试官像我介绍了他们公司在做的东西,以及如果我去可以一起参加深度学习的比赛

 

二面:

 介绍论文

询问了 CF 和 FM

后面就是聊天了,介绍组内的情况

最后面试官直接让我加微信

 

面试结束直接就通过了,大概率会去这里实习了

~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~

360面试

一面:

4道算法题:思维题,背包,链表合并

GBDT

GBDT 和 bagging 的区别

 

 

 

~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~

Metaapp

体验最差的一次面试了吧,先不说面试官迟到10多分钟,进来后前半程面试他一直在走动,后半程趴着面试,露个眼.......只能说真大牛,NB

介绍推荐系统

矩阵分解的方法

介绍论文

如何衡量2个分布的近似程度

交叉熵

KL散度与交叉熵的关系

 

posted @ 2021-12-06 18:00  楼主好菜啊  阅读(51)  评论(0编辑  收藏  举报