机器学习面试题总结(笔记)
摘要:一 面试题概述 面试的时候,面试官会结合你的回答和你的简历来询问你,所以在写简历的时候,简历上所写的所有内容在写的时候必须自己反问一下自己,这个知识点懂不懂。 面试其实是一个沟通技巧的考量,在面试的时候要“灵活”; 在有一些问题上,如果不会,那么直接说不会就可以;但是在一些比较关键的问题上,如果这个
阅读全文
posted @
2021-09-16 15:01
知识天地
阅读(1031)
推荐(0) 编辑
机器学习面试常见问题
摘要:(1) 无监督和有监督算法的区别? 有监督学习: 对具有概念标记(分类)的训练样本进行学习,以尽可能对训练样本集外的数据进行标记(分类)预测。这里,所有的标记(分类)是已知的。因此,训练样本的岐义性低。 无监督学习: 对没有概念标记(分类)的训练样本进行学习,以发现训练样本集中的结构性知识。这里,所
阅读全文
posted @
2021-09-16 14:59
知识天地
阅读(145)
推荐(0) 编辑
机器学习面试问题总结
摘要:判别式模型和生成式模型的区别? 判别方法:由数据直接学习决策函数 Y = f(X),或者由条件分布概率 P(Y|X)作为预测模型,即判别模型。生成方法:由数据学习联合概率密度分布函数 P(X,Y),然后求出条件概率分布P(Y|X)作为预测的模型,即生成模型。由生成模型可以得到判别模型,但由判别模型得
阅读全文
posted @
2021-09-16 14:59
知识天地
阅读(174)
推荐(0) 编辑
深度学习面试题29:GoogLeNet(Inception V3)
摘要:目录 使用非对称卷积分解大filters 重新设计pooling层 辅助构造器 使用标签平滑 参考资料 在《深度学习面试题20:GoogLeNet(Inception V1)》和《深度学习面试题26:GoogLeNet(Inception V2)》中对前两个Inception版本做了介绍,下面主要阐
阅读全文
posted @
2019-08-20 13:20
知识天地
阅读(755)
推荐(0) 编辑
深度学习面试题28:标签平滑(Label smoothing)
摘要:目录 产生背景 工作原理 参考资料 产生背景 假设选用softmax交叉熵训练一个三分类模型,某样本经过网络最后一层的输出为向量x=(1.0, 5.0, 4.0),对x进行softmax转换输出为: 假设该样本y=[0, 1, 0],那损失loss: 按softmax交叉熵优化时,针对这个样本而言,
阅读全文
posted @
2019-08-20 10:22
知识天地
阅读(3187)
推荐(0) 编辑
深度学习面试题27:非对称卷积(Asymmetric Convolutions)
摘要:目录 产生背景 举例 参考资料 产生背景 之前在深度学习面试题16:小卷积核级联卷积VS大卷积核卷积中介绍过小卷积核的三个优势: ①整合了三个非线性激活层,代替单一非线性激活层,增加了判别能力。 ②减少了网络参数。 ③减少了计算量 在《Rethinking the Inception Archite
阅读全文
posted @
2019-08-20 10:21
知识天地
阅读(3423)
推荐(0) 编辑
深度学习面试题26:GoogLeNet(Inception V2)
摘要:目录 第一层卷积换为分离卷积 一些层的卷积核的个数发生了变化 多个小卷积核代替大卷积核 一些最大值池化换为了平均值池化 完整代码 参考资料 第一层卷积换为分离卷积 net = slim.separable_conv2d( inputs, depth(64), [7, 7], depth_multip
阅读全文
posted @
2019-08-20 10:19
知识天地
阅读(703)
推荐(0) 编辑
深度学习面试题25:分离卷积(separable卷积)
摘要:目录 举例 单个张量与多个卷积核的分离卷积 参考资料 举例 分离卷积就是先在深度上分别卷积,然后再进行卷积,对应代码为: import tensorflow as tf # [batch, in_height, in_width, in_channels] input =tf.reshape(tf.
阅读全文
posted @
2019-08-20 10:18
知识天地
阅读(1082)
推荐(0) 编辑
深度学习面试题24:在每个深度上分别卷积(depthwise卷积)
摘要:目录 举例 单个张量与多个卷积核在深度上分别卷积 参考资料 举例 如下张量x和卷积核K进行depthwise_conv2d卷积 结果为: depthwise_conv2d和conv2d的不同之处在于conv2d在每一深度上卷积,然后求和,depthwise_conv2d没有求和这一步,对应代码为:
阅读全文
posted @
2019-08-20 10:17
知识天地
阅读(4068)
推荐(0) 编辑
深度学习面试题23:批次张量和卷积核的简易定义方式
摘要:目录 直接定义的缺点 简易定义的方式 参考资料 直接定义的缺点 在tensorflow中假设有一批输入为: 其定义如下: tf.constant([ [ [ [3, 1, -3], [1, -1, 7] ], [ [-2, 2, -5], [2, 7, 3] ] ], [ [ [-1, 3, 1],
阅读全文
posted @
2019-08-20 10:16
知识天地
阅读(873)
推荐(0) 编辑
深度学习面试题22:批量归一化在实践中的应用
摘要:目录 指数移动平均 BN在卷积网络中的使用 参考资料 假设已经训练好一个带有BN操作的卷积神经网络,但是在使用它预测时,往往每次只输入一个样本,那么经过该网络时,计算平均值和方差的意义就不大了,常采用的策略是计算训练阶段的平均值和方差的指数移动平均,然后在预测阶段使用它们作为BN操作时的平均值和方差
阅读全文
posted @
2019-08-20 10:15
知识天地
阅读(942)
推荐(0) 编辑
深度学习面试题21:批量归一化(Batch Normalization,BN)
摘要:目录 BN的由来 BN的作用 BN的操作阶段 BN的操作流程 BN可以防止梯度消失吗 为什么归一化后还要放缩和平移 BN在GoogLeNet中的应用 参考资料 BN的由来 BN是由Google于2015年提出,论文是《Batch Normalization_ Accelerating Deep Ne
阅读全文
posted @
2019-08-20 10:13
知识天地
阅读(1830)
推荐(2) 编辑
深度学习面试题20:GoogLeNet(Inception V1)
摘要:目录 简介 网络结构 对应代码 网络说明 参考资料 简介 2014年,GoogLeNet和VGG是当年ImageNet挑战赛(ILSVRC14)的双雄,GoogLeNet获得了第一名、VGG获得了第二名,这两类模型结构的共同特点是层次更深了。VGG继承了LeNet以及AlexNet的一些框架结构,而
阅读全文
posted @
2019-08-20 10:12
知识天地
阅读(488)
推荐(0) 编辑
深度学习面试题19:1*1卷积核的作用
摘要:目录 举例 在Inception module上的应用 参考资料 可以减少计算量,可以增加非线性判别能力 举例 假设有1个高为30、宽为40,深度为200的三维张量与55个高为5、宽为5、深度为200的卷积核same卷积,步长=1,则结果是高为30、宽为40、深度为55的三维张量,如图所示: 该卷积
阅读全文
posted @
2019-08-20 10:10
知识天地
阅读(491)
推荐(0) 编辑
深度学习面试题18:网中网结构(Network in Network)
摘要:目录 举例 参考资料 网中网结构通过多个分支的运算(卷积或池化),将分支上的运算结果在深度上连接 举例 一个3*3*2的张量, 与3个1*1*2的卷积核分别same卷积,步长=1, 与2个2*2*2的卷积核分别same卷积,步长=1, 与1个3*3*2的掩码最大值same池化,步长=1, 将得到的这
阅读全文
posted @
2019-08-20 10:09
知识天地
阅读(636)
推荐(0) 编辑
深度学习面试题17:VGGNet(1000类图像分类)
摘要:目录 VGGNet网络结构 论文中还讨论了其他结构 参考资料 2014年,牛津大学计算机视觉组(Visual Geometry Group)和Google DeepMind公司的研究员一起研发出了新的深度卷积神经网络:VGGNet,并取得了ILSVRC2014比赛分类项目的第二名(第一名是GoogL
阅读全文
posted @
2019-08-20 10:07
知识天地
阅读(957)
推荐(0) 编辑
深度学习面试题16:小卷积核级联卷积VS大卷积核卷积
摘要:目录 感受野 多个小卷积核连续卷积和单个大卷积核卷积的作用相同 小卷积核的优势 参考资料 感受野 在卷积神经网络中,感受野(Receptive Field)的定义是卷积神经网络每一层输出的特征图(feature map)上的像素点在输入图片上映射的区域大小。再通俗点的解释是,特征图上的一个点对应输入
阅读全文
posted @
2019-08-20 10:05
知识天地
阅读(4324)
推荐(0) 编辑
深度学习面试题15:卷积核需要旋转180度
摘要:目录 举例 结论 参考资料 在一些书籍和博客中所讲的卷积(一个卷积核和输入的对应位置相乘,然后累加)不是真正意义上的卷积。根据离散卷积的定义,卷积核是需要旋转180的。 按照定义来说,一个输入和一个卷积核做卷积操作的流程是: ①卷积核旋转180 ②对应位置相乘,然后累加 举例 下面这个图是常见的卷积
阅读全文
posted @
2019-08-20 10:03
知识天地
阅读(1034)
推荐(0) 编辑
深度学习面试题14:Dropout(随机失活)
摘要:目录 卷积层的dropout 全连接层的dropout Dropout的反向传播 Dropout的反向传播举例 参考资料 在训练过程中,Dropout会让输出中的每个值以概率keep_prob变为原来的1/keep_prob倍,以概率1-keep_prob变为0。也就是在每一轮的训练中让一些神经元随
阅读全文
posted @
2019-08-20 10:01
知识天地
阅读(2539)
推荐(0) 编辑
深度学习面试题13:AlexNet(1000类图像分类)
摘要:目录 网络结构 两大创新点 参考资料 第一个典型的CNN是LeNet5网络结构,但是第一个引起大家注意的网络却是AlexNet,Alex Krizhevsky其实是Hinton的学生,这个团队领导者是Hinton,于2012年发表论文。 AlexNet有60 million个参数和65000个 神经
阅读全文
posted @
2019-08-20 10:00
知识天地
阅读(1672)
推荐(0) 编辑