文章分类 -  机器学习

摘要:P(x)是一个归一化因子,是一个常量,可以看做是对求关于theata的积分 阅读全文
posted @ 2020-03-14 09:53 逐梦客! 阅读(96) 评论(0) 推荐(0) 编辑
摘要:原文地址:郑申海 https://zhuanlan.zhihu.com/p/21580949 PCA(Principal Component Analysis)是一种常用的数据分析方法。PCA通过线性变换将原始数据变换为一组各维度线性无关的表示,可用于提取数据的主要特征分量,常用于高维数据的降维。网 阅读全文
posted @ 2020-03-11 16:56 逐梦客! 阅读(238) 评论(0) 推荐(0) 编辑
摘要:原文作者:阿泽原文地址:https://zhuanlan.zhihu.com/p/85731206 决策树是一个非常常见并且优秀的机器学习算法,它易于理解、可解释性强,其可作为分类算法,也可用于回归模型。本文将分三篇介绍决策树,第一篇介绍基本树(包括 ID3、C4.5、CART),第二篇介绍 Ran 阅读全文
posted @ 2020-03-10 20:44 逐梦客! 阅读(273) 评论(0) 推荐(0) 编辑
摘要:作者:X猪 来源:简书链接:https://www.jianshu.com/p/8c7f033be58a 模型性能的度量 在监督学习中,已知样本 ,要求拟合出一个模型(函数),其预测值与样本实际值的误差最小。 考虑到样本数据其实是采样,并不是真实值本身,假设真实模型(函数)是,则采样值,其中代表噪音 阅读全文
posted @ 2020-03-08 23:13 逐梦客! 阅读(520) 评论(0) 推荐(0) 编辑
摘要:原文地址:https://www.cnblogs.com/gczr/p/10521551.html 在约束最优化问题中,常常利用拉格朗日对偶性(Lagrange duality)将原始问题转换为对偶问题,通过解对偶问题而得到原始问题的解。这是因为: 1)对偶问题的对偶是原问题; 2)无论原始问题与约 阅读全文
posted @ 2020-03-07 23:38 逐梦客! 阅读(574) 评论(0) 推荐(1) 编辑
摘要:系列博客 机器学习原理:https://www.cntofu.com/book/85/index.html 矩阵求导术:https://zhuanlan.zhihu.com/p/24709748 中心极限定理通俗介绍:https://zhuanlan.zhihu.com/p/25241653 机器学 阅读全文
posted @ 2020-03-06 18:00 逐梦客! 阅读(202) 评论(0) 推荐(0) 编辑
摘要:https://www.cnblogs.com/pinard/p/6251584.html https://zhuanlan.zhihu.com/p/29846048 阅读全文
posted @ 2020-03-05 22:40 逐梦客! 阅读(69) 评论(0) 推荐(0) 编辑
摘要:作者:火锅侠 来源:简书链接:https://www.jianshu.com/p/b9528df2f57a 如果有了类别标签,那么聚类结果也可以像分类那样计算准确率和召回率。但是不应该将分类标签作为聚类结果的评价指标,除非你有相关的先验知识或某种假设,知道这种分类类内差距更小。但是它还是给出了几种评 阅读全文
posted @ 2020-03-04 22:02 逐梦客! 阅读(395) 评论(0) 推荐(0) 编辑
摘要:K-means算法 K-均值算法是发现给定数据集的k个簇的算法,簇个数是用户给定的,每一个簇通过其质心(centroid)即簇中所有点的中心来描述。 1、K-均值算法的流程: (1)对于输入样本集 {x1,x2,...,xm},随机确定k个质心 {μ1,μ2,...,μk}; (2)计算每个样本xj 阅读全文
posted @ 2020-03-04 21:19 逐梦客! 阅读(603) 评论(0) 推荐(0) 编辑
摘要:作者:Arya鑫链接:https://www.jianshu.com/p/b3ea0090ab2e 中心极限定理通俗介绍 中心极限定理收敛至大数定律 什么是中心极限定理(Central Limit Theorem) 中心极限定理指的是给定一个任意分布的总体。我每次从这些总体中随机抽取 n 个抽样,一 阅读全文
posted @ 2020-03-02 17:24 逐梦客! 阅读(1088) 评论(0) 推荐(0) 编辑
摘要:拉格朗日乘子法——分析推导:https://blog.csdn.net/hao5335156/article/details/82320082 拉格朗日乘子法:https://blog.csdn.net/qq_33829547/article/details/100152556 带约束条件的极值问题 阅读全文
posted @ 2020-03-02 13:08 逐梦客! 阅读(1977) 评论(0) 推荐(0) 编辑
摘要:作者:zdd 出处:http://www.cnblogs.com/graphics/ 平面的一般式方程 Ax +By +Cz + D = 0 其中n = (A, B, C)是平面的法向量,D是将平面平移到坐标原点所需距离(所以D=0时,平面过原点) 向量的模(长度) 给定一个向量V(x, y, z) 阅读全文
posted @ 2020-03-02 10:54 逐梦客! 阅读(4590) 评论(0) 推荐(0) 编辑
摘要:作者:阮一峰 原文地址:http://www.ruanyifeng.com/blog/2015/06/poisson-distribution.html 大学时,我一直觉得统计学很难,还差点挂科。 工作以后才发现,难的不是统计学,而是我们的教材写得不好。比起高等数学,统计概念其实容易理解多了。 我举 阅读全文
posted @ 2020-03-01 17:27 逐梦客! 阅读(212) 评论(0) 推荐(0) 编辑
摘要:版权声明:本文为CSDN博主「曾先森~~」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。原文链接:https://blog.csdn.net/zwqjoy/article/details/84859405 参考另一篇:[机器学习] 性能评估指标(精确率、召回率、R 阅读全文
posted @ 2020-02-29 22:57 逐梦客! 阅读(5494) 评论(0) 推荐(0) 编辑
摘要:K-近邻(KNN) 作者:Yabea : https://www.cnblogs.com/ybjourney/p/4702562.html 距离度量、k值选择以及分类决策规则:https://blog.csdn.net/Daycym/article/details/81178519 KNN中的k如何 阅读全文
posted @ 2020-02-29 20:03 逐梦客! 阅读(683) 评论(0) 推荐(0) 编辑
摘要:版权声明:本文为CSDN博主「__鸿」的原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接及本声明。原文链接:https://blog.csdn.net/u014313009/article/details/51043064 交叉熵代价函数(Cross-entropy cos 阅读全文
posted @ 2020-02-11 23:41 逐梦客! 阅读(269) 评论(0) 推荐(0) 编辑
摘要:版权声明:本文为CSDN博主「thinktothings」的原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接及本声明。原文链接:https://blog.csdn.net/thinktothings/article/details/89838698 免费语音转字幕功能介绍 阅读全文
posted @ 2019-12-26 15:59 逐梦客! 阅读(2769) 评论(0) 推荐(0) 编辑
摘要:科大讯飞:https://www.iflytek.com/ 版权声明:本文为CSDN博主「南方朗郎」的原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接及本声明。原文链接:https://blog.csdn.net/sunshuai_coder/article/details 阅读全文
posted @ 2019-12-26 15:47 逐梦客! 阅读(1488) 评论(0) 推荐(0) 编辑
摘要:作者:jiandanjinxin链接:https://www.jianshu.com/p/edaf949bcaeb来源:简书著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 矩阵的迹定义如下 定理7.png 迹方法.png 最小二乘法 最小二乘法1.png 最小二乘法2.png 阅读全文
posted @ 2019-11-18 15:12 逐梦客! 阅读(644) 评论(0) 推荐(0) 编辑
摘要:原文地址:https://datafai.com/2018/02/25/deep-learning-convolution-neural-network-cnn-in-python/ Deep Learning- Convolution Neural Network (CNN) in Python 阅读全文
posted @ 2019-11-15 13:28 逐梦客! 阅读(137) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示