07 2020 档案

摘要:1、非监督学习主要包括两大类学习方法:数据聚类和特征变量关联。聚类是通过多次迭代来找到数据的最优的分割,特征变量关联则是利用各种相关性分析方法来找到变量之间的关系。 分类:类别已知 聚类:是在不知道不知道类别标签的情况下,通过数据之间的内在关系,把样本分为若干类别,使得同类别样本之间的相似度高,不同 阅读全文
posted @ 2020-07-31 18:54 19l92y11p26 阅读(221) 评论(0) 推荐(0)
摘要:引自:https://www.cnblogs.com/zhoubindut/p/12142186.html 上篇文章中,我们就机器学习的相关基础概念进行了阐述,包括机器学习的基本概念以及机器学习的分类。不了解的童鞋可以看一下补补课,机器学习系列(一)——基础概念及分类。分类和回归问题作为典型的机器学 阅读全文
posted @ 2020-07-31 17:45 19l92y11p26 阅读(1200) 评论(0) 推荐(0)
摘要:1、常见的降维的方法有:主成分分析,线性判别分析,等距映射,局部线性插入,拉不拉斯特征映射,局部保留投影。 一、PCA: 2、:主成分分析法,最经典的降维的方法,是一种线性,非监督,全局的降维方法。 最大方差理论: 3、PCA旨在找到数据中的主成分,用这些主成分表征原始数据,达到降维的目的。信号具有 阅读全文
posted @ 2020-07-30 20:30 19l92y11p26 阅读(163) 评论(0) 推荐(0)
摘要:深度学习中常用的优化器简介 引自:https://www.cnblogs.com/crackpotisback/p/9921931.html 阅读全文
posted @ 2020-07-28 20:25 19l92y11p26 阅读(155) 评论(0) 推荐(0)
摘要:引自:https://blog.csdn.net/qq_25737169/article/details/78847691 阅读全文
posted @ 2020-07-28 11:52 19l92y11p26 阅读(86) 评论(0) 推荐(0)
摘要:引自:https://www.seotest.cn/jishu/36125.html BN被广泛应用于深度学习的各个地方,由于在实习过程中需要修改网络,修改的网络在训练过程中无法收敛,就添加了BN层进去来替换掉LRN层,网络可以收敛。现在就讲一下Batch Normalization的工作原理。 B 阅读全文
posted @ 2020-07-27 20:26 19l92y11p26 阅读(1514) 评论(0) 推荐(0)
摘要:一、评价指标的局限性 1、常用模型评价指标:准确率,精确率,召回率,均方根误差。 准确率=分类正确的样本数/总的样本数 精确率=将正类预测为正类数/将正类预测为正类数+将负类预测为正类数 召回率=将正类预测为正类数/将正类预测为正类数+将正类预测为负类数 均方根误差= 2、准确率的局限性:(1)、不 阅读全文
posted @ 2020-07-27 14:38 19l92y11p26 阅读(170) 评论(0) 推荐(0)
摘要:特征工程 一、特征归一化: (1)为什么对数值类型的特征做归一化: 1、是为了得到更加准确的结果,使各项指标处于同一数值量级或者统一到一个大致的数值区间内,以便进行分析。 2、不同数值特征的梯度下降的速度更加的一致,能更快的找到梯度下降的最优解。 (2)常用的数值特征的归一下的方法: 1、线性函数归 阅读全文
posted @ 2020-07-27 11:52 19l92y11p26 阅读(241) 评论(0) 推荐(0)
摘要:引自:https://zhuanlan.zhihu.com/p/147204568 方法主要有模型结构优化、模型剪枝、模型量化、知识蒸馏。 1、模型结构优化 总览各种深度学习模型,可以发现它们都是由一个个小组件组装而成,只是初期先把模型做大做强,后期落地遇到问题时,再瘦身优化。具体的优化方法依赖于具 阅读全文
posted @ 2020-07-25 16:07 19l92y11p26 阅读(3902) 评论(0) 推荐(0)
摘要:引自:https://blog.csdn.net/weixin_43206570/article/details/84797361?utm_medium=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-1.n 阅读全文
posted @ 2020-07-18 17:05 19l92y11p26 阅读(158) 评论(0) 推荐(0)
摘要:引自:https://www.zhihu.com/question/57770020 作者:育心链接:https://www.zhihu.com/question/57770020/answer/249708509来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 机器学 阅读全文
posted @ 2020-07-18 16:53 19l92y11p26 阅读(310) 评论(0) 推荐(0)
摘要:引自:http://www.mamicode.com/info-detail-2716063.html 累乘中一个梯度小于1,那么不断累乘,这个值会越来越小,梯度衰减很大,迅速接近0。在神经网络中是离输出层近的参数,梯度越大,远的参数,梯度越接近0。根本原因是sigmoid函数的缺陷。 方法: 1、 阅读全文
posted @ 2020-07-17 21:54 19l92y11p26 阅读(358) 评论(0) 推荐(0)
摘要:引自:https://blog.csdn.net/baoyan2015/article/details/56016169?utm_source=blogxgwz0 随机森林 随机森林顾名思义,是用随机的方式建立一个森林,森林里面有很多的决策树组成,随机森林的每一棵决策树之间是没有关联的。在得到森林之 阅读全文
posted @ 2020-07-17 21:39 19l92y11p26 阅读(444) 评论(0) 推荐(0)
摘要:引自:https://blog.csdn.net/qq_16949707/article/details/82558852 现象通过神经网络生成的图片,放大了看会有棋盘格的现象混叠现象造成的,反卷积时,到stride和ksize 不能整除时,就会有这种现象,二维图像的时候更显著。神经网络虽然能学习, 阅读全文
posted @ 2020-07-17 19:34 19l92y11p26 阅读(707) 评论(0) 推荐(0)
摘要:引自:https://blog.csdn.net/u014451076/article/details/79156967 bilinear双线性插值是目前在语义分割中用的比较多的一种方式,比如FCN中就是用的这种方法。这种方法特点是不需要进行学习,运行速度快,操作简单。只需要设置好固定的参数值即可, 阅读全文
posted @ 2020-07-16 18:12 19l92y11p26 阅读(1914) 评论(0) 推荐(0)
摘要:引自:https://www.cnblogs.com/Sweepingmonk/p/11584913.html 1. 应用范围 高维数据因为其计算代价昂贵(纬度高计算必然昂贵)和建立索引结构的困难(空间索引结构往往面临着“维度灾”),因此有对其进行数据压缩的需求,即对高维数据进行降维,傅里叶变换和小 阅读全文
posted @ 2020-07-16 16:19 19l92y11p26 阅读(1048) 评论(0) 推荐(0)
摘要:引自:https://www.cnblogs.com/king-lps/p/8378561.html 5. 批量归一化(BN: Batch Normalization) 5.1 BN训练 1)随机梯度下降法(SGD)对于训练深度网络简单高效,但是它有个毛病,就是需要我们人为的去选择参数,比如学习率、 阅读全文
posted @ 2020-07-13 09:55 19l92y11p26 阅读(1222) 评论(0) 推荐(0)
摘要:引自:https://blog.csdn.net/chenyuping333/article/details/82526440 https://www.cnblogs.com/zhhfan/p/10187634.html (1)LeNet:元老级框架,结构简单,却开创了卷积神经网络的新纪元,具有重要 阅读全文
posted @ 2020-07-12 21:04 19l92y11p26 阅读(409) 评论(0) 推荐(0)
摘要:引自:https://blog.csdn.net/EngineerHe/article/details/100126694 实现代码: import numpy as np def sigmoid(x): y=1/(1+np.exp(-x)) retunrn y def d_sigmoid(x): 阅读全文
posted @ 2020-07-12 18:22 19l92y11p26 阅读(410) 评论(0) 推荐(0)
摘要:计算机视觉任务主要分为:分类、检测、识别、定位四大类。 L1 loss ,L2 loss和smooth L1 loss 引自:https://cloud.tencent.com/developer/article/1441560 https://blog.csdn.net/qq_26598445/a 阅读全文
posted @ 2020-07-12 17:43 19l92y11p26 阅读(773) 评论(0) 推荐(0)

/*鼠标跟随效果*/ /* 点击爆炸效果*/ /*鼠标跟随效果*/
Live2D