上一页 1 ··· 21 22 23 24 25 26 27 28 29 ··· 62 下一页
摘要: Numpy实现K折交叉验证的数据划分 本实例使用Numpy的数组切片语法,实现了K折交叉验证的数据划分 背景:K折交叉验证 为什么需要这个?在机器学习中,因为如下原因,使用K折交叉验证能更好评估模型效果: 样本量不充足,划分了训练集和测试集后,训练数据更少; 训练集和测试集的不同划分,可能会导致不同 阅读全文
posted @ 2021-05-02 09:57 北极星! 阅读(440) 评论(0) 推荐(0) 编辑
摘要: 决策树基本概念: 什么是归纳什么是演绎 混淆矩阵:准确率,差错率 决策树用好了,有规则;用不好,过拟合。 分类算法实战 画混淆矩阵的ROC曲线: 阅读全文
posted @ 2021-05-01 17:38 北极星! 阅读(109) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2021-05-01 16:58 北极星! 阅读(76) 评论(0) 推荐(0) 编辑
摘要: 原理: 其中 n = a+b+c+d 卡方计算(例子)使用 sklearn完成 data.csv中的部分数据 #如何使用卡方检测相关度 from sklearn.feature_selection import SelectKBest,chi2 import pandas as pd file='d 阅读全文
posted @ 2021-05-01 11:36 北极星! 阅读(890) 评论(0) 推荐(0) 编辑
摘要: 既能做分类,又能做回归。分类:基尼值作为节点分类依据。回归:最小方差作为节点的依据。 节点越不纯,基尼值越大,熵值越大 pi表示在信息熵部分中有介绍,如下图中介绍 方差越小越好。 选择最小的那个0.3 代码: #整个c4.5决策树的所有算法: import numpy as np import op 阅读全文
posted @ 2021-04-30 21:52 北极星! 阅读(1104) 评论(0) 推荐(0) 编辑
摘要: 最重要的是第一个 改进1:信息增益率代替信息增益来选择属性 改进2:连续属性与分裂点 计算的是以候选点(划分点)划分的划分点的条件信息熵 改进三:缺失值处理 众数;概率值—缺失值将缺失值当作单独分类,进行计算。 改进四:学习过程中的过渡拟合 c4.5代码样例 #整个c4.5决策树的所有算法: imp 阅读全文
posted @ 2021-04-29 15:06 北极星! 阅读(227) 评论(0) 推荐(0) 编辑
摘要: 二者均是常用的二维插值方法,两者的区别是, interp2的插值数据必须是矩形域(X,Y必须分别是单调向量),即已知数据点(x,y)组成规则的矩阵,或称之为栅格,可使用meshgid生成。 griddata函数的已知数据点(X,Y)不要求规则排列,特别是对试验中随机没有规律采取的数据进行插值具有很好 阅读全文
posted @ 2021-04-26 21:47 北极星! 阅读(2092) 评论(0) 推荐(0) 编辑
摘要: 动态环境感知与2D Dtection 基于图片的检测算法(简介) 分类是将物体识别出是什么东西 检测是将物体识别是什么东西且将物体框起来 ROI指的就是框 如何得到物体的位置 如何分类 基于图片的检测算法(两步) 在cnn引入之前检测方式 基于图片的检测算法(单步) 单步 源码地址 阅读全文
posted @ 2021-04-23 18:46 北极星! 阅读(241) 评论(0) 推荐(0) 编辑
摘要: 决策树入门 决策树是分类算法中最重要的算法,重点 决策树算法在电信营业中怎么工作? 这个工人也是流失的,在外网转移比处虽然没有特征来判断,但是在此节点处流失率有三个分支概率更大 为什么叫决策树? 因为树的叶子节点是我们最终预判的结果。决策树如何来? 根据训练样本建立。问题1:为什么费用变换率放第一个 阅读全文
posted @ 2021-04-22 09:28 北极星! 阅读(1037) 评论(1) 推荐(0) 编辑
摘要: Numpy非常重要有用的数组合并操作 背景:在给机器学习准备数据的过程中,经常需要进行不同来源的数据合并的操作。 两类场景: 给已有的数据添加多行,比如增添一些样本数据进去; 给已有的数据添加多列,比如增添一些特征进去; 以下操作均可以实现数组合并: np.concatenate(array_lis 阅读全文
posted @ 2021-04-21 16:55 北极星! 阅读(435) 评论(0) 推荐(0) 编辑
上一页 1 ··· 21 22 23 24 25 26 27 28 29 ··· 62 下一页