摘要: ● Word2Vec中skip-gram是什么,Negative Sampling怎么做 参考回答: Word2Vec通过学习文本然后用词向量的方式表征词的语义信息,然后使得语义相似的单词在嵌入式空间中的距离很近。而在Word2Vec模型中有Skip-Gram和CBOW两种模式,Skip-Gram是 阅读全文
posted @ 2019-06-03 20:52 鸿钧道人 阅读(5967) 评论(0) 推荐(0) 编辑
摘要: ● 神经网络为啥用交叉熵。 参考回答: 通过神经网络解决多分类问题时,最常用的一种方式就是在最后一层设置n个输出节点,无论在浅层神经网络还是在CNN中都是如此,比如,在AlexNet中最后的输出层有1000个节点,而即便是ResNet取消了全连接层,也会在最后有一个1000个节点的输出层。 一般情况 阅读全文
posted @ 2019-06-03 20:51 鸿钧道人 阅读(2949) 评论(0) 推荐(0) 编辑
摘要: ● 深度学习了解多少,有看过底层代码吗?caffe,tf? ● 除了GMM-HMM,你了解深度学习在语音识别中的应用吗? 参考回答: 讲了我用的过DNN-HMM,以及与GMM-HMM的联系与区别;然后RNN+CTC,这里我只是了解,大概讲了一下CTC损失的原理;然后提了一下CNN+LSTM。 ● 用 阅读全文
posted @ 2019-06-03 20:50 鸿钧道人 阅读(2309) 评论(0) 推荐(0) 编辑
摘要: ● BatchNormalization的作用 参考回答: 神经网络在训练的时候随着网络层数的加深,激活函数的输入值的整体分布逐渐往激活函数的取值区间上下限靠近,从而导致在反向传播时低层的神经网络的梯度消失。而BatchNormalization的作用是通过规范化的手段,将越来越偏的分布拉回到标准化 阅读全文
posted @ 2019-06-03 20:49 鸿钧道人 阅读(2698) 评论(0) 推荐(0) 编辑
摘要: ● bagging和boosting的区别 参考回答: Bagging是从训练集中进行子抽样组成每个基模型所需要的子训练集,然后对所有基模型预测的结果进行综合操作产生最终的预测结果。 Boosting中基模型按次序进行训练,而基模型的训练集按照某种策略每次都进行一定的转化,最后以一定的方式将基分类器 阅读全文
posted @ 2019-06-03 20:48 鸿钧道人 阅读(1653) 评论(0) 推荐(0) 编辑
摘要: ● 请你说一说推荐算法,fm,lr,embedding 参考回答: 推荐算法: 基于人口学的推荐、基于内容的推荐、基于用户的协同过滤推荐、基于项目的协同过滤推荐、基于模型的协同过滤推荐、基于关联规则的推荐 FM: LR: 逻辑回归本质上是线性回归,只是在特征到结果的映射中加入了一层逻辑函数g(z), 阅读全文
posted @ 2019-06-03 20:47 鸿钧道人 阅读(7996) 评论(0) 推荐(0) 编辑
摘要: ● 什么是DBSCAN 参考回答: DBSCAN是一种基于密度的空间聚类算法,它不需要定义簇的个数,而是将具有足够高密度的区域划分为簇,并在有噪声的数据中发现任意形状的簇,在此算法中将簇定义为密度相连的点的最大集合。 ● k-means算法流程 参考回答: 从数据集中随机选择k个聚类样本作为初始的聚 阅读全文
posted @ 2019-06-03 20:46 鸿钧道人 阅读(3373) 评论(0) 推荐(0) 编辑
摘要: ● L1和L2正则化的区别 参考回答: L1是模型各个参数的绝对值之和,L2为各个参数平方和的开方值。L1更趋向于产生少量的特征,其它特征为0,最优的参数值很大概率出现在坐标轴上,从而导致产生稀疏的权重矩阵,而L2会选择更多的矩阵,但是这些矩阵趋向于0。 ● 问题:Loss Function有哪些, 阅读全文
posted @ 2019-06-03 20:43 鸿钧道人 阅读(1699) 评论(0) 推荐(0) 编辑
摘要: ● 分层抽样的适用范围 参考回答: 分层抽样利用事先掌握的信息,充分考虑了保持样本结构和总体结构的一致性,当总体由差异明显的几部分组成的时候,适合用分层抽样。 ● LR的损失函数 参考回答: M为样本个数,为模型对样本i的预测结果,为样本i的真实标签。 ● LR和线性回归的区别 参考回答: 线性回归 阅读全文
posted @ 2019-06-03 20:39 鸿钧道人 阅读(2305) 评论(0) 推荐(0) 编辑
摘要: 处理分类问题常用算法 阅读全文
posted @ 2019-06-03 20:37 鸿钧道人 阅读(1827) 评论(0) 推荐(0) 编辑