随笔分类 -  计算机视觉(深度学习)

摘要:引自: https://zxth93.github.io/2017/09/27/KL散度JS散度Wasserstein距离/ 1. KL散度 KL散度又称为相对熵,信息散度,信息增益。KL散度是是两个概率分布P和Q 差别的非对称性的度量。 KL散度是用来 度量使用基于Q的编码来编码来自P的样本平均所 阅读全文
posted @ 2021-11-17 19:41 19l92y11p26 阅读(244) 评论(0) 推荐(0)
摘要:引自:https://www.freesion.com/article/6203385847/ BD-RATE计算原理 标签: H.26X研究 视频编解码 算法 计算机视觉 目录 BD-rate介绍 VB程序分析 使用方法 参考文献 BD-RATE介绍 BD-rate是评价视频编码算法性能的主要参数 阅读全文
posted @ 2021-09-14 11:42 19l92y11p26 阅读(1362) 评论(0) 推荐(0)
摘要:引自:https://www.cnblogs.com/pjl1119/p/9914861.html H264视频压缩算法现在无疑是所有视频压缩技术中使用最广泛,最流行的。随着 x264/openh264以及ffmpeg等开源库的推出, 大多数使用者无需再对H264的细节做过多的研究,这大降低了人们使 阅读全文
posted @ 2021-09-09 14:12 19l92y11p26 阅读(696) 评论(0) 推荐(0)
摘要:引自:https://www.jianshu.com/p/53bffd95d6f5 使用正确的评价指标 如ROC-AUC。 重新采样训练集 欠采样 常常当数据量足够多时使用这个方法。通过在多数类样本中随机选择和少数类样本相同数量的样本。 可多次放回地抽取不同的训练集,训练不同的分类器进行组合,会减少 阅读全文
posted @ 2021-06-04 09:29 19l92y11p26 阅读(227) 评论(0) 推荐(0)
摘要:1、GBDT是机器学习算法,而XGBoost是算法的工程实现 2、使用CART作为基分类器时,XGBoost显式的加入了正则项来控制模型的复杂度,防止过拟合,提高了模型 的泛化能力 3、GBDT只使用了代价函数的一阶导数信息,而XGBoost对代价函数进行二阶泰勒展开,同时使用一阶和二阶信息。 4、 阅读全文
posted @ 2020-11-30 10:55 19l92y11p26 阅读(3721) 评论(0) 推荐(0)
摘要:随机森林和GBDT的区别 随机森林采用的bagging思想,而GBDT采用的boosting思想。这两种方法都是Bootstrap思想的应用,Bootstrap是一种有放回的抽样方法思想。虽然都是有放回的抽样,但二者的区别在于:Bagging采用有放回的均匀取样,而Boosting根据错误率来取样( 阅读全文
posted @ 2020-11-30 10:43 19l92y11p26 阅读(449) 评论(0) 推荐(0)
摘要:引自:https://www.cnblogs.com/xiaorui111/p/10907224.html 一.预处理的作用 在机器学习任务中,学习器都会对数据有一定的要求,比如在最近邻算法中,我需要寻找与中心点最近邻的点,假设我们使用欧式距离度量,如果有一个属性值是千万量级,而另一个属性是100以 阅读全文
posted @ 2020-11-29 13:38 19l92y11p26 阅读(166) 评论(0) 推荐(0)
摘要:引自:https://www.cnblogs.com/jinruoyanxu/p/11487575.html 在人工智能领域,机器学习属于其中的一种方法,而神经网络是机器学习里的一种算法。 神经网络一般有输入层->隐藏层->输出层,一般来说隐藏层大于2的神经网络就叫做深度神经网络,深度学习就是采用像 阅读全文
posted @ 2020-11-28 20:19 19l92y11p26 阅读(1005) 评论(0) 推荐(0)
摘要:ResNet结构 它使用了一种连接方式叫做“shortcut connection”,顾名思义,shortcut就是“抄近道”的意思,看下图我们就能大致理解: 图1 Shortcut Connection 这是文章里面的图,我们可以看到一个“弯弯的弧线“这个就是所谓的”shortcut connec 阅读全文
posted @ 2020-11-10 09:36 19l92y11p26 阅读(4753) 评论(0) 推荐(1)
摘要:引自:https://blog.csdn.net/u013289254/article/details/99690730 一. 本文的内容包括: 1. Batch Normalization,其论文:https://arxiv.org/pdf/1502.03167.pdf 2. Layer Norm 阅读全文
posted @ 2020-11-01 11:16 19l92y11p26 阅读(1279) 评论(0) 推荐(1)
摘要:引自:https://blog.csdn.net/ABCDEFG0929/article/details/87103772 一、协同过滤算法的原理及实现 二、基于物品的协同过滤算法详解 一、协同过滤算法的原理及实现 协同过滤推荐算法是诞生最早,并且较为著名的推荐算法。主要的功能是预测和推荐。算法通过 阅读全文
posted @ 2020-10-27 14:18 19l92y11p26 阅读(846) 评论(0) 推荐(0)
摘要:引自:https://www.cnblogs.com/lvjincheng/p/11361461.html 题目1-10 如何在半径为1的圆中随机选取一点? 一根木棒,截成三截,组成三角形的概率是多少? 抛一个六面的色子,连续抛直到抛到6为止,问期望的抛的次数是多少。 一个木桶里面有M个白球,每分钟 阅读全文
posted @ 2020-08-10 20:30 19l92y11p26 阅读(361) 评论(0) 推荐(0)
摘要: 阅读全文
posted @ 2020-08-08 16:57 19l92y11p26 阅读(153) 评论(0) 推荐(0)
摘要:引自:https://blog.csdn.net/luoxuexiong/article/details/90412213 Adam优化算法是一种对随机梯度下降法的扩展,最近在计算机视觉和自然语言处理中广泛应用于深度学习应用。在引入该算法时,OpenAI的Diederik Kingma和多伦多大学的 阅读全文
posted @ 2020-08-03 19:07 19l92y11p26 阅读(126) 评论(0) 推荐(0)
摘要:1、非监督学习主要包括两大类学习方法:数据聚类和特征变量关联。聚类是通过多次迭代来找到数据的最优的分割,特征变量关联则是利用各种相关性分析方法来找到变量之间的关系。 分类:类别已知 聚类:是在不知道不知道类别标签的情况下,通过数据之间的内在关系,把样本分为若干类别,使得同类别样本之间的相似度高,不同 阅读全文
posted @ 2020-07-31 18:54 19l92y11p26 阅读(222) 评论(0) 推荐(0)
摘要:引自:https://www.cnblogs.com/zhoubindut/p/12142186.html 上篇文章中,我们就机器学习的相关基础概念进行了阐述,包括机器学习的基本概念以及机器学习的分类。不了解的童鞋可以看一下补补课,机器学习系列(一)——基础概念及分类。分类和回归问题作为典型的机器学 阅读全文
posted @ 2020-07-31 17:45 19l92y11p26 阅读(1200) 评论(0) 推荐(0)
摘要:1、常见的降维的方法有:主成分分析,线性判别分析,等距映射,局部线性插入,拉不拉斯特征映射,局部保留投影。 一、PCA: 2、:主成分分析法,最经典的降维的方法,是一种线性,非监督,全局的降维方法。 最大方差理论: 3、PCA旨在找到数据中的主成分,用这些主成分表征原始数据,达到降维的目的。信号具有 阅读全文
posted @ 2020-07-30 20:30 19l92y11p26 阅读(163) 评论(0) 推荐(0)
摘要:深度学习中常用的优化器简介 引自:https://www.cnblogs.com/crackpotisback/p/9921931.html 阅读全文
posted @ 2020-07-28 20:25 19l92y11p26 阅读(155) 评论(0) 推荐(0)
摘要:引自:https://blog.csdn.net/qq_25737169/article/details/78847691 阅读全文
posted @ 2020-07-28 11:52 19l92y11p26 阅读(86) 评论(0) 推荐(0)
摘要:引自:https://www.seotest.cn/jishu/36125.html BN被广泛应用于深度学习的各个地方,由于在实习过程中需要修改网络,修改的网络在训练过程中无法收敛,就添加了BN层进去来替换掉LRN层,网络可以收敛。现在就讲一下Batch Normalization的工作原理。 B 阅读全文
posted @ 2020-07-27 20:26 19l92y11p26 阅读(1516) 评论(0) 推荐(0)

/*鼠标跟随效果*/ /* 点击爆炸效果*/ /*鼠标跟随效果*/
Live2D