摘要: 原文作者:aircraft 原文链接:https://www.cnblogs.com/DOMLX/p/9751471.html 1.np.random.random()函数参数 np.random.random((1000, 20)) 上面这个就代表一千个浮点数,从0-20中随机。 2.numpy. 阅读全文
posted @ 2019-03-30 10:14 胖白白 阅读(823) 评论(0) 推荐(0) 编辑
摘要: 机器学习:数据预处理之独热编码(One-Hot) 前言 ———————————————————————————————————————— 在机器学习算法中,我们经常会遇到分类特征,例如:人的性别有男女,祖国有中国,美国,法国等。这些特征值并不是连续的,而是离散的,无序的。通常我们需要对其进行特征数字 阅读全文
posted @ 2019-03-29 20:20 胖白白 阅读(808) 评论(0) 推荐(0) 编辑
摘要: predict_proba返回的是一个n行k列的数组,第i行第j列上的数值是模型预测第i个预测样本的标签为j的概率。所以每一行的和应该等于1. 举个例子 >>> from sklearn.linear_model import LogisticRegression >>> import numpy 阅读全文
posted @ 2019-03-29 19:02 胖白白 阅读(2098) 评论(0) 推荐(1) 编辑
摘要: 1.#中文字体显示 plt.rc('font', family='SimHei', size=13) 2. pandas中的.value_counts(),很像python自带的Count(),但.value_counts()可以对Series里面的每个值进行计数并且排序,如果想用升序排列,可以加参 阅读全文
posted @ 2019-03-25 22:05 胖白白 阅读(292) 评论(0) 推荐(0) 编辑
摘要: 目标:预测未知数据(或测试数据)X的分类y 批量kNN算法 1.输入一个待预测的X(一维或多维)给训练数据集,计算出训练集X_train中的每一个样本与其的距离 2.找到前k个距离该数据最近的样本-->所属的分类y_train 3.将前k近的样本进行统计,哪个分类多,则我们将x分类为哪个分类 核心代 阅读全文
posted @ 2019-03-20 20:43 胖白白 阅读(926) 评论(0) 推荐(0) 编辑
摘要: 极大似然估计法的理解可以从三个角度入手,一个是整体性的思想,然后两个分别是离散状态的极大似然估计和连续状态的极大似然估计的简单例子。一、思想极大似然估计可以拆成三个词,分别是“极大”、“似然”、“估计”,分别的意思如下:极大:最大的概率似然:看起来是这个样子的估计:就是这个样子的连起来就是,最大的概 阅读全文
posted @ 2019-03-18 20:54 胖白白 阅读(408) 评论(0) 推荐(0) 编辑
摘要: 大数定律,这里的数指次数,x1,x2,...,xn,...,独立,则方差小于一个上届(方差最小==0),则这些样本xi的平均值会随着实验次数n的增加而趋近于xi的期望。 生活中,event A 发生的次数n >∞,则A发生的频率趋近于其发生的概率。 频率可以随着实验次数重复增加,来表示难以得到的概率 阅读全文
posted @ 2019-03-18 20:30 胖白白 阅读(3693) 评论(0) 推荐(0) 编辑
摘要: 《算法图解》 《大话数据结构》 《离散数学》 《编译原理》 阅读全文
posted @ 2019-03-15 22:13 胖白白 阅读(90) 评论(0) 推荐(0) 编辑
摘要: 首先我们要明确,python中大多数都是浅拷贝,我们先说原因: 1.时间花费更少 2.内存更小 3.效率更高,浅拷贝只拷贝顶层数据,一般情况下比深拷贝效率高。 容器(如列表)切片是浅拷贝 阅读全文
posted @ 2019-03-15 22:10 胖白白 阅读(309) 评论(0) 推荐(0) 编辑
摘要: 递归: 1.函数调用本身 2.要有明确的结束标志 例:求1到指定数字的和(100) sum(100) = sum(99) + 100 sum(99) = sum(98) + 99 ...... sum(2) = sum(1) + 2 sum(1) = 1 递归嵌套最多1000层(python中) 阅读全文
posted @ 2019-03-15 21:35 胖白白 阅读(132) 评论(0) 推荐(0) 编辑