摘要:
引自:https://blog.csdn.net/qq_25737169/article/details/78847691 阅读全文
摘要:
引自:https://www.seotest.cn/jishu/36125.html BN被广泛应用于深度学习的各个地方,由于在实习过程中需要修改网络,修改的网络在训练过程中无法收敛,就添加了BN层进去来替换掉LRN层,网络可以收敛。现在就讲一下Batch Normalization的工作原理。 B 阅读全文
摘要:
一、评价指标的局限性 1、常用模型评价指标:准确率,精确率,召回率,均方根误差。 准确率=分类正确的样本数/总的样本数 精确率=将正类预测为正类数/将正类预测为正类数+将负类预测为正类数 召回率=将正类预测为正类数/将正类预测为正类数+将正类预测为负类数 均方根误差= 2、准确率的局限性:(1)、不 阅读全文
摘要:
特征工程 一、特征归一化: (1)为什么对数值类型的特征做归一化: 1、是为了得到更加准确的结果,使各项指标处于同一数值量级或者统一到一个大致的数值区间内,以便进行分析。 2、不同数值特征的梯度下降的速度更加的一致,能更快的找到梯度下降的最优解。 (2)常用的数值特征的归一下的方法: 1、线性函数归 阅读全文
摘要:
引自:https://zhuanlan.zhihu.com/p/147204568 方法主要有模型结构优化、模型剪枝、模型量化、知识蒸馏。 1、模型结构优化 总览各种深度学习模型,可以发现它们都是由一个个小组件组装而成,只是初期先把模型做大做强,后期落地遇到问题时,再瘦身优化。具体的优化方法依赖于具 阅读全文
摘要:
引自:https://blog.csdn.net/weixin_43206570/article/details/84797361?utm_medium=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-1.n 阅读全文
摘要:
引自:https://www.zhihu.com/question/57770020 作者:育心链接:https://www.zhihu.com/question/57770020/answer/249708509来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 机器学 阅读全文
摘要:
引自:http://www.mamicode.com/info-detail-2716063.html 累乘中一个梯度小于1,那么不断累乘,这个值会越来越小,梯度衰减很大,迅速接近0。在神经网络中是离输出层近的参数,梯度越大,远的参数,梯度越接近0。根本原因是sigmoid函数的缺陷。 方法: 1、 阅读全文
摘要:
引自:https://blog.csdn.net/baoyan2015/article/details/56016169?utm_source=blogxgwz0 随机森林 随机森林顾名思义,是用随机的方式建立一个森林,森林里面有很多的决策树组成,随机森林的每一棵决策树之间是没有关联的。在得到森林之 阅读全文
摘要:
引自:https://blog.csdn.net/qq_16949707/article/details/82558852 现象通过神经网络生成的图片,放大了看会有棋盘格的现象混叠现象造成的,反卷积时,到stride和ksize 不能整除时,就会有这种现象,二维图像的时候更显著。神经网络虽然能学习, 阅读全文