随笔分类 -  classification

摘要:目录 概念 1. 奇异值(SVD)分解 2. 张量分解 2.1 CP 分解( Canonical Polyadic Decomposition (CPD) 2.2 TD 分解( Tucker Decomposition ) 2.3 BTD 分解(block term decomposition) 概 阅读全文
posted @ 2022-05-24 22:49 何弈 阅读(1340) 评论(0) 推荐(1) 编辑
摘要:参考连接:https://www.cnblogs.com/pinard/p/6251584.html 阅读全文
posted @ 2021-11-11 23:55 何弈 阅读(299) 评论(0) 推荐(0) 编辑
摘要:矩阵的奇异值分解和主成分分析之间的关系 矩阵的奇异值分解(SVD): 是针对当前矩阵的一种操作,求得当前矩阵的特征值。 其相关的应用有矩阵压缩,矩阵主要信息提取等。 主成分分析(PCA): 一般而言主成分分析是针对样本数据而言的,即统计量。而样本数据在未经过处理之前是无法反映出各统计量之间的关联,所 阅读全文
posted @ 2021-11-10 22:41 何弈 阅读(179) 评论(0) 推荐(0) 编辑
摘要:一、概括: L1和L2是正则化项,又叫做罚项,是为了限制模型的参数,防止模型过拟合而加在损失函数后面的一项。 二、区别: 1.L1是模型各个参数的绝对值之和。 L2是模型各个参数的平方和的开方值。 2.L1会趋向于产生少量的特征,而其他的特征都是0. 因为最优的参数值很大概率出现在坐标轴上,这样就会 阅读全文
posted @ 2021-08-27 17:21 何弈 阅读(788) 评论(0) 推荐(0) 编辑
摘要:偏差和方差 机器学习算法针对特定数据所训练出来的模型并非是十全十美的,再加上数据本身的复杂性,误差不可避免。说到误差,就必须考虑其来源:模型误差 = 偏差(Bias)+ 方差(Variance)+ 数据本身的误差。其中数据本身的误差,可能由于记录过程中的一些不确定性因素等导致,这个我们无法避免,能做 阅读全文
posted @ 2021-08-27 17:14 何弈 阅读(1655) 评论(0) 推荐(0) 编辑
摘要:相信大家在机器学习中,一定常见到;SVC,NvSVC,LinearSVC,今天我们就来看看这三者的区别。 一、SVC(C-Support Vector Classification): 支持向量分类,基于libsvm实现的,数据拟合的时间复杂度是数据样本的二次方,这使得他很难扩展到10000个数据集 阅读全文
posted @ 2021-08-23 11:36 何弈 阅读(1869) 评论(0) 推荐(1) 编辑
摘要:一般性的是C-SVC。nu-SVC 见:http://scikit-learn.org/stable/modules/svm.html#svm-mathematical-formulation https://www.quora.com/What-is-the-difference-between- 阅读全文
posted @ 2021-08-23 11:35 何弈 阅读(843) 评论(0) 推荐(0) 编辑
摘要:支持向量机(Support Vector Machine, SVM) 1. 概要 1.1 简介 自从大半年前接触到SVM以来,感觉一直没怎么把SVM整明白。直到最近上的《模式识别》课程才仿佛打通了我的任督二脉,使我终于搞清楚了SVM的来龙去脉,所以写个博客作个总结。 SVM是什么? 先来看看维基百科 阅读全文
posted @ 2021-07-28 16:31 何弈 阅读(682) 评论(0) 推荐(0) 编辑
摘要:一、什么是ROC曲线 对于分类模型,常见的模型评价指标有精确率、召回率以及ROC曲线等,看名字不太好理解,下面来仔细分析。 混淆矩阵: 表中结果分为四类: 真正样 TP(True Positive):预测为正样本的正样本,预测正确体现在True,预测值体现在Positive。 假负样 FN(Fals 阅读全文
posted @ 2021-06-18 01:49 何弈 阅读(1461) 评论(0) 推荐(0) 编辑
摘要:理解模型正则化:L1正则、L2正则(理论+代码) 0 前言 我们已经知道了模型误差 = 偏差 + 方差 + 不可避免的误差,且在机器学习领域中最重要就是解决过拟合的问题,也就是降低模型的方差。在上一篇文章《ML/DL重要基础概念:偏差和方差》已经列出了如下方法: 降低模型复杂度 减少数据维度;降噪 阅读全文
posted @ 2020-07-02 22:21 何弈 阅读(2849) 评论(0) 推荐(1) 编辑
摘要:Linear Regression and Logistic Regression are the two famous Machine Learning Algorithms which come under supervised learning technique. Since both th 阅读全文
posted @ 2020-07-02 21:40 何弈 阅读(434) 评论(0) 推荐(0) 编辑
摘要:one-class classification -- 一元分类 In machine learning, one-class classification, also known as unary classification, tries to identify objects of a spe 阅读全文
posted @ 2020-04-06 22:13 何弈 阅读(668) 评论(0) 推荐(0) 编辑

你好
点击右上角即可分享
微信分享提示