面经更新中
一、深度学习
1、BN有什么作用,BN的工作原理,BN为什么要加scale
2、unet的优点
3、STN为什么局部可导
4、手写矩阵形式的卷积、反卷积
5、如何计算感受野
6、不同层数的resnet有何区别
7、梯度消失和梯度爆炸
两种情况下梯度消失经常出现,一是在深层网络中,二是采用了不合适的损失函数,比如sigmoid。梯度爆炸一般出现在深层网络和权值初始化值太大的情况下
二、python
1、字典按照value排序
2、迭代器
3、python有哪些基础库,random算法怎么实现的(https://www.cnblogs.com/lzxwalex/p/6880748.html)
三、机器学习
1、机器学习和深度学习有什么区别(数据量,黑盒,训练时间等)
2、召回率和精确率
3、SVM中的软间隔和硬间隔:
硬间隔即要求所有的样本点都要正确划分,并且在这个基础上找到间隔最大的;软间隔软间隔支撑向量机可以理解为我们牺牲了在某些点上必须正确划分的限制,
来换取更大的分隔间隔。牺牲了在某些点上必须正确划分的限制,来换取更大的分隔间隔。
4、SVM中的核函数:
作用于X空间中向量的內积就可以得到将x通过转换Φ在Z空间中得到的向量然后做內积的结果。直观上理解, 核函数就是将我们原来要做的两步:
特征转化+高维空间中內积,合并为了一步:直接在低维空间中计算我们想要的结果。
四、计算机基础
1、tcp和udp的区别,tcp的三次握手
2、数据库的内连接和外连接
3、面向过程和面向对象的区别
4、多进程和多线程的区别