04 2021 档案
摘要:既能做分类,又能做回归。分类:基尼值作为节点分类依据。回归:最小方差作为节点的依据。 节点越不纯,基尼值越大,熵值越大 pi表示在信息熵部分中有介绍,如下图中介绍 方差越小越好。 选择最小的那个0.3 代码: #整个c4.5决策树的所有算法: import numpy as np import op
阅读全文
摘要:最重要的是第一个 改进1:信息增益率代替信息增益来选择属性 改进2:连续属性与分裂点 计算的是以候选点(划分点)划分的划分点的条件信息熵 改进三:缺失值处理 众数;概率值—缺失值将缺失值当作单独分类,进行计算。 改进四:学习过程中的过渡拟合 c4.5代码样例 #整个c4.5决策树的所有算法: imp
阅读全文
摘要:二者均是常用的二维插值方法,两者的区别是, interp2的插值数据必须是矩形域(X,Y必须分别是单调向量),即已知数据点(x,y)组成规则的矩阵,或称之为栅格,可使用meshgid生成。 griddata函数的已知数据点(X,Y)不要求规则排列,特别是对试验中随机没有规律采取的数据进行插值具有很好
阅读全文
摘要:动态环境感知与2D Dtection 基于图片的检测算法(简介) 分类是将物体识别出是什么东西 检测是将物体识别是什么东西且将物体框起来 ROI指的就是框 如何得到物体的位置 如何分类 基于图片的检测算法(两步) 在cnn引入之前检测方式 基于图片的检测算法(单步) 单步 源码地址
阅读全文
摘要:决策树入门 决策树是分类算法中最重要的算法,重点 决策树算法在电信营业中怎么工作? 这个工人也是流失的,在外网转移比处虽然没有特征来判断,但是在此节点处流失率有三个分支概率更大 为什么叫决策树? 因为树的叶子节点是我们最终预判的结果。决策树如何来? 根据训练样本建立。问题1:为什么费用变换率放第一个
阅读全文
摘要:Numpy非常重要有用的数组合并操作 背景:在给机器学习准备数据的过程中,经常需要进行不同来源的数据合并的操作。 两类场景: 给已有的数据添加多行,比如增添一些样本数据进去; 给已有的数据添加多列,比如增添一些特征进去; 以下操作均可以实现数组合并: np.concatenate(array_lis
阅读全文
摘要:Numpy怎样给数组增加一个维度 背景:很多数据计算都是二维或三维的,对于一维的数据输入为了形状匹配,经常需升维变成二维 需要:在不改变数据的情况下,添加数组维度;(注意观察这个例子,维度变了,但数据不变)原始数组:一维数组arr=[1,2,3,4],其shape是(4, ),取值分别为arr[0]
阅读全文
摘要:Numpy计算数组中满足条件元素个数 需求:有一个非常大的数组比如1亿个数字,求出里面数字小于5000的数字数目 1. 使用numpy的random模块生成1亿个数字 2. 使用Python原生语法实现 3. 使用numpy的向量化操作实现 4. 对比下时间
阅读全文
摘要:Anaconda run python程序的时候,如果有import cv2, 但是遇到报错的时候, 可以考虑在anaconda 中安装opencv, 安装过程非常简单。 什么是opencv , opencv(全称是Open source Computer Vision Library,开放源代码计
阅读全文
摘要:静态环境感知与分割算法 实战基于传统方法的车道线检测 import cv2 as cv import numpy as np # import matplotlib.pyplot as plt def do_canny(frame): # Converts frame to grayscale be
阅读全文
摘要:相似变换 相似标准型 目前不是很重要 相合变换(二次型)
阅读全文
摘要:一、时间复杂度 举例练习 二、空间复杂度 既然时间复杂度不是用来计算程序具体耗时的,那么我也应该明白,空间复杂度也不是用来计算程序实际占用的空间的。 空间复杂度是对一个算法在运行过程中临时占用存储空间大小的一个量度,同样反映的是一个趋势,我们用 S(n) 来定义。 计算空间复杂度:看储存单元随n如何
阅读全文
摘要:线性空间与基 线性映射与矩阵 线性回归 矩阵模型 线性方程 几何逼近 最小二乘
阅读全文
摘要:点估计 参数估计:假设某个事件遵循某种分布方式(比如两点分布),将此事件进行n此独立实验,得到样本x1、x2、x3、。。。。xn,之后根据这些实验的到的样本去估计两点分布中的参数p。 矩估计 方法:知道这些样本后,可以通过这些样本计算的到均值、方差等信息,通过这些信息就可以得到分布函数的参数。 举例
阅读全文
摘要:积分学 牛顿-莱布尼兹公式 多变量积分 概率论 条件概率 贝叶斯公式 共轭分布 先验概率、后验概率 随机变量的矩 切比雪夫不等式 大数定律 大数定律表明方差存在时样本的均值与样本服从的分布的期望相等,即将数理统计和概率论关联起来 中心极限定律 中心极限定律,定理表明任意独立同分布的随机变量x1、x2
阅读全文
摘要:什么是随机种子?我们知道,随机数是通过一些复杂的数学算法得到的,那么 随机种子(Random Seed)就是这些随机数的初始值。 一般计算机里面产生的随机数都是伪随机数。 伪随机数,也是就一个一直不变的数。 import numpy as np num = 0 while (num < 5): np
阅读全文
摘要:Numpy的数学统计函数 本节内容: 1、Numpy有哪些数学统计函数: 函数名说明 np.sum 所有元素的和 np.prod 所有元素的乘积 np.cumsum 元素的累积加和 np.cumprod 元素的累积乘积 np.min 最小值 np.max 最大值 np.percentile 0-10
阅读全文
摘要:快捷键 ctrl”键去点击函数名,就会直接跳转到该函数所在的源代码页面。
阅读全文
摘要:Numpy常用random下的随机函数汇总 官方文档地址:https://docs.scipy.org/doc/numpy-1.14.0/reference/routines.random.html 1. rand(d0, d1, ..., dn) 返回数据在[0, 1)之间,具有均匀分布 2. r
阅读全文
摘要:迭代法 简单来说,其实就是不断地用旧的变量值,递推计算新的变量值 计算机语言中的循环即是迭代的最好应用 故事 古印度国王舍罕酷爱下棋,他打算重赏国际象棋的发明人宰相西萨·班·达依尔。这位聪明的大臣指着象棋盘对国王说:“陛下,我不要别的赏赐,请您在这张棋盘的第一个小格内放入一粒麦子,在第二个小格内放入
阅读全文
摘要:极限 极限:如何比较无穷小 夹逼定理 重要极限 微分学 一元函数 多元函数 泰勒级数 洛必达法则(泰勒证明) 优化问题 牛顿法 梯度下降发 以等高线的方式来解释梯度,梯度方向垂直于等高线,从一个等高线到大另外一个等高线的最短距离就是一垂直于等高线的方向到达另外一个等高线的。即梯度的方向上升/下降的最
阅读全文
摘要:Numpy对数组按索引查询 三种索引方法: 基础索引 神奇索引 布尔索引 基础索引 一维数组 和Python的List一样 二维数组 注意:切片的修改会修改原来的数组 原因:Numpy经常要处理大数组,避免每次都复制 神奇索引 其实就是:用整数数组进行的索引,叫神奇索引 数组中的整数就是索引值,如何
阅读全文
摘要:Numpy的核心array对象以及创建array的方法 array对象的背景: Numpy的核心数据结构,就叫做array就是数组,array对象可以是一维数组,也可以是多维数组; Python的List也可以实现相同的功能,但是array比List的优点在于性能好、包含数组元数据信息、大量的便捷函
阅读全文
摘要:参考:IPython 中常用的魔法命令 Ipython中的魔法命令总结 IPython 是一个 python 的交互式 shell,比默认的python shell 好用得多,支持变量自动补全,自动缩进,支持 bash shell命令,内置了许多很有用的功能和函数。 IPython 是基于BSD 开
阅读全文
摘要:numpy是什么?为什么使用numpy 使用numpy库与原生python用于数组计算性能对比
阅读全文
摘要:高等数学 导数 泰勒公式 方向导数 梯度 凸函数 概率论 可以根据特征与目标的分布情况提前了解特征与目标的相关性 数理统计 期望 方差 协方差 线性代数
阅读全文
摘要:机器学习分类 监督学习:有特征、有目标的数据(训练集)训练出一种算法(模型),使用该算法(模型)对另外一些有特征没有目标的数据进行判断,判断这些数据的目标是什么 训练好的模型可以称为得分函数(模型本身也是函数) 损失函数可以称为得分函数的函数,损失函数最小时得分函数的参数最优,也就是通过损失函数来对
阅读全文
摘要:logistic回归模型的参数估计问题,是可以用最小二乘方法的思想进行求解的,但和经典的(或者说用在经典线性回归的参数估计问题)最小二乘法不同,是用的是“迭代重加权最小二乘法”(IRLS, Iteratively Reweighted Least Squares)。本质上不能使用经典的最小二乘法的原
阅读全文
摘要:回归:连续值预测 逻辑回归:分类算法。–逻辑回归是干什么?定义:对定性变量的回归分析;定性:定量:之前的回归模型,处理的是因变量是数值型区间(负无穷到正无穷)变量,建立的模型描述的是因变量Y与自变量(X)之间的线性关系。 期望=期望参数与自变量的分别乘积和; 逻辑变换的公式:要记住 注:结果是对称的
阅读全文
摘要:函数凸凹性: 用到的范数知识: 详细解释:每一个元素的平方再开方。补充损失函数: Huber Loss知识点 loss函数可以通过loss参数进行设置。SGDRegressor支持以下的loss函数: SGD:随机梯度下降四个损失函数: 事例代码: import numpy as np import
阅读全文
摘要:线性回归 基础知识: 回归是监督学习中的重要问题,回归用于预测输入变量和输出变量之间的关系;很好的拟合已知模型,并很好的预测未知模型; 什么是回归: 1,回归问题分为模型的学习和预测两个过程。基于训练模型以及给定训练数据集构建一个模型,根据新的输入数据预测相应的输出;2,回归问题按照输入变量的个数可
阅读全文
摘要:梯度讲解 更新过程的公式有问题,修改为: a代表学习率或者说事步长 举例说明 假设 有样本点(4,20)、(8,50)、(5,30)、(10,70)、(12,60) 求回归函数 求解过程: 将样本点拆分 x=[4, 8, 5, 10, 12] y = [20, 50, 30, 70, 60] 假设回
阅读全文
摘要:写在最前: 在安装过程中遇到很多坑,一开始自己从官网下载了Python3.6.3或者Python3.6.5或者Python3.7.1等多个版本,然后直接pip install tensorflow或者从https://www.lfd.uci.edu/~gohlke/pythonlibs/下载制定的t
阅读全文
摘要:转自:http://www.ruiwen.com/lunwen/1362218.html
阅读全文