随笔分类 -  ML

常见机器学习和基础
摘要:1.Ubuntu20上使用vscode配置Opencv4,参考:https://blog.csdn.net/qq_45915007/article/details/113000097 阅读全文
posted @ 2021-02-04 17:43 绍荣 阅读(84) 评论(0) 推荐(0) 编辑
摘要:Win10上安装VS2019 下载地址:https://visualstudio.microsoft.com/vs/ 由于只是运行opencv的代码,不需要安装多余的包,如图所示 安装opencv库 1.下载路径:https://opencv.org/releases/ 根据系统选择对应的openc 阅读全文
posted @ 2020-12-31 12:39 绍荣 阅读(509) 评论(0) 推荐(0) 编辑
摘要:1.ImportError: cannot import name 'PILLOW_VERSION' from 'PIL'解决方案 阅读全文
posted @ 2020-09-30 15:12 绍荣 阅读(93) 评论(0) 推荐(0) 编辑
摘要:1.基础知识 Apriori的目标是寻找频率项集和关联规则,相应的评价指标是支持度和可信度 2.python3中已没有urllib2 urllib2已改为urllib.request,urllib2.HTTPError变为urllib.URLError,其它的基本一致。 在python3下安装vot 阅读全文
posted @ 2020-09-04 09:33 绍荣 阅读(193) 评论(0) 推荐(0) 编辑
摘要:1.random 在python3中,numpy中的一些随机方法 random.random_sample() # 产生0-1之间的随机数 random.rand(3,1) # 产生3行1列的随机数,随机数的大小是0-1 2.min和max A = mat(array([[1,3], [5, 6]] 阅读全文
posted @ 2020-09-01 17:27 绍荣 阅读(155) 评论(0) 推荐(0) 编辑
摘要:皮尔逊积矩相关系数,又称“相关系数”, 取值范围为[-1,1],r=0,没有相关性。 -1:表示方向完全相反 1:表示方向相同,并且完全一样 0:表示没有相关性 函数签名: numpy.corrcoef(x, y=None, rowvar=True, bias=<no value>, ddof=<n 阅读全文
posted @ 2020-08-31 14:54 绍荣 阅读(2536) 评论(0) 推荐(0) 编辑
摘要:树回归 当回归的数据呈现非线性时,就需要使用树回归。 树回归的基本逻辑 获得最好的切分特征和切分特征值 遍历所有特征 针对某一特征,遍历该特征的所有值 针对某一特征值,进行划分数据,计算出划分数据之后的总方差, 若总方差最小,记下特征和特征值 当遍历完所有特征后,就能够获得最小方差的特征和特征值,并 阅读全文
posted @ 2020-08-28 11:33 绍荣 阅读(243) 评论(0) 推荐(0) 编辑
摘要:1 代码分析 dataSet[nonzero(dataSet[:,feature] <= value)[0],:][0] 大的方向是取矩阵中的第一行 根据[行:列]获取子矩阵 那么:nonzero(dataSet[:,feature] <= value)[0] 就是行的索引值,而nonzero对矩阵 阅读全文
posted @ 2020-08-27 15:08 绍荣 阅读(109) 评论(0) 推荐(0) 编辑
摘要:逐步前向线性回归 1.初始化系数为0,即zeros((特征数, 1)) 2.每执行一次迭代,都要遍历每一个特征,针对每一个特征的系数,有两种取值情况,分别是[-1,1]两个方向的sign*step。 这样就确定了两个权重向量,然后将所有的训练样本*权重向量,获得训练样本的预测值; 3.将所有这些预测 阅读全文
posted @ 2020-08-25 14:47 绍荣 阅读(155) 评论(0) 推荐(0) 编辑
摘要:以下列出了本人是学习线性回归算法时,所掌握的一些编程技巧 1.矩阵相减 matrix A是n*m,B是1*m 则A-B 表示A中的每行中对应列元素都减去B对应的列元素 2.对样本数据标准化处理 mean(A, 0) # 表示对A中的每一列取平均值,最后得到1*m的矩阵 var(A, 0) #表示对A 阅读全文
posted @ 2020-08-25 13:43 绍荣 阅读(306) 评论(0) 推荐(0) 编辑
摘要:import matplotlib.pyplot as plt fig = plt.figure() ax = fig.add_subplot(111) ax.scatter(xSortRawArr, ySortRawArr) ax.plot(xSortRawArr, ySortHatArr) pl 阅读全文
posted @ 2020-08-24 19:14 绍荣 阅读(7504) 评论(0) 推荐(0) 编辑
摘要:numpy主要有两大类:narray和matrix(或简写mat),他们都有排序方法sort()和argsort() 这两个函数,默认都是按照纵轴切分数据,然后在各自切分的数据上进行从小到大排序。 sort() 会改变原有变量的数据存放,若是不想改变的话,可以使用copy(),即narray.cop 阅读全文
posted @ 2020-08-18 19:24 绍荣 阅读(263) 评论(0) 推荐(0) 编辑
摘要:roc通俗理解: http://www.360doc.com/content/18/0523/22/21027246_756500813.shtml 机器学习面试题集-如何画 ROC 曲线 机器学习实战:非均衡分类问题(召回率/ROC/AUC/采样方法) # 讲述了计算过程 非均衡分类问题: htt 阅读全文
posted @ 2020-08-14 18:05 绍荣 阅读(165) 评论(0) 推荐(0) 编辑
摘要:通俗易懂的介绍: https://blog.csdn.net/cauchy7203/article/details/107588241 https://www.zhihu.com/question/295048467/answer/1392963606 阅读全文
posted @ 2020-08-13 17:58 绍荣 阅读(153) 评论(0) 推荐(0) 编辑
摘要:听说自然数最初是从银行计算复利所得到的。示例如下: 本金1元,年初放入银行,年复利率为100%,那么年末的本息(本金+利息) = 1×(1+100%) = 2元。 复利可以按年计算,也可以按月、日、时、分、秒计算。如果年复利不变,那么月利率为1/12*100%,日利率为1/365*100%,时利率为 阅读全文
posted @ 2020-08-05 10:19 绍荣 阅读(1449) 评论(0) 推荐(0) 编辑
摘要:Pipeline可以将许多算法模型串联起来,比如将特征提取、归一化、分类组织在一起形成一个典型的机器学习问题工作流。主要带来两个好处: 1.直接调用fit和predict方法来对pipeline中的所有算法模型进行训练和预测 2.可以结合grid search对参数进行选择 在下面的例子中,我们使用 阅读全文
posted @ 2020-07-06 15:22 绍荣 阅读(236) 评论(0) 推荐(0) 编辑
摘要:seaborn.heatmap pandas.info(): 获得列信息,包括列名,个数和数据类型 pandas.drop('Cabin', axis=1, inplace=True):删除指定列,axis=1,表示删除列, pandas.head():查看前6行数据,显示列名和6行数据 panda 阅读全文
posted @ 2020-07-06 15:21 绍荣 阅读(127) 评论(0) 推荐(0) 编辑
摘要:参考链接: https://zhuanlan.zhihu.com/p/31886934 https://www.cnblogs.com/yymn/p/4589689.html Karush-Kuhn-Tucker (KKT)条件 阅读全文
posted @ 2020-07-06 14:49 绍荣 阅读(159) 评论(0) 推荐(0) 编辑
摘要:1. 概述 Logistic回归分析也用于研究影响关系,即X对于Y的影响情况。Y为定量数据,X可以是定量数据或定类数据。主要是研究二分类观察结果与一些影响因素之间关系的一种多变量分析方法。因变量可以是二分类的,也可以是多分类的。主要在流行病学中应用较多,比较常用的情形是探索某疾病的危险因素,根据危险 阅读全文
posted @ 2020-06-30 16:10 绍荣 阅读(563) 评论(0) 推荐(0) 编辑
摘要:1 朴素贝叶斯 是一种简单但极为强大的预测建模算法,之所以成为朴素,是因为它假设每个输入变量是独立的。这个假设在现实生活中不可能满足,但是这项技术对于绝大部分的复杂问题仍然非常有效。 朴素贝叶斯模型由两种类型的概率组成: 1、每个类别的概率P(Cj) 2、每个属性的条件概率P(Ai|Cj) 举例: 阅读全文
posted @ 2020-06-28 14:09 绍荣 阅读(234) 评论(0) 推荐(0) 编辑