摘要: import numpy as np# x = np.array([[0, 1, 2], [3, 4, 5], [6, 7, 8], [9, 10, 11]])# print ('我们的数组是:')# print (x)# print ('\n')# rows = np.array([[0, 0], 阅读全文
posted @ 2019-05-28 16:21 gao_jian 阅读(332) 评论(0) 推荐(0) 编辑
摘要: """np.arrayobject 数组或嵌套的数列dtype 数组元素的数据类型,可选copy 对象是否需要复制,可选order 创建数组的样式,C为行方向,F为列方向,A为任意方向(默认)subok 默认返回一个与基类类型一致的数组ndmin 指定生成数组的最小维度"""## num = np. 阅读全文
posted @ 2019-05-28 16:00 gao_jian 阅读(337) 评论(0) 推荐(0) 编辑
摘要: https://blog.csdn.net/songzhiren5560/article/details/80311981 阅读全文
posted @ 2019-05-27 14:10 gao_jian 阅读(250) 评论(0) 推荐(0) 编辑
摘要: 事务的 四个特征(ACID) 事务具有四个特征:原子性( Atomicity )、一致性( Consistency )、隔离性( Isolation )和持续性( Durability )。这四个特性简称为 ACID 特性。 1 、原子性。事务是数据库的逻辑工作单位,事务中包含的各操作要么都做,要么 阅读全文
posted @ 2019-04-30 12:57 gao_jian 阅读(130495) 评论(2) 推荐(20) 编辑
摘要: 特征值和奇异值在大部分人的印象中,往往是停留在纯粹的数学计算中。而且线性代数或者矩阵论里面,也很少讲任何跟特征值与奇异值有关的应用背景。 奇异值分解是一个有着很明显的物理意义的一种方法,它可以将一个比较复杂的矩阵用更小更简单的几个子矩阵的相乘来表示,这些小矩阵描述的是矩阵的重要的特性。就像是描述一个 阅读全文
posted @ 2019-04-28 08:41 gao_jian 阅读(25084) 评论(3) 推荐(3) 编辑
摘要: https://blog.csdn.net/wf592523813/article/details/86382037 https://blog.csdn.net/xiayto/article/details/80029044 n_estimators 最大深度max_depth和内部节点再划分所需最 阅读全文
posted @ 2019-04-26 15:19 gao_jian 阅读(261) 评论(0) 推荐(0) 编辑
摘要: scikit-learn对于线性回归提供了比较多的类库,这些类库都可以用来做线性回归分析,本文就对这些类库的使用做一个总结,重点讲述这些线性回归算法库的不同和各自的使用场景。 线性回归的目的是要得到输出向量YY和输入特征XX之间的线性关系,求出线性回归系数θθ,也就是 Y=XθY=Xθ。其中YY的维 阅读全文
posted @ 2019-04-26 10:33 gao_jian 阅读(1424) 评论(0) 推荐(0) 编辑
摘要: 1, 去掉取值变化小的特征(Removing features with low variance) sklearn.feature_selection.VarianceThreshold(threshold=0.0) 2, 单变量特征选择(Univariate feature selection) 阅读全文
posted @ 2019-04-24 14:36 gao_jian 阅读(844) 评论(0) 推荐(0) 编辑
摘要: 正向代理 我访问不了某网站比如www.google.com,但是我能访问一个代理服务器 这个代理服务器呢,它能访问那个我不能访问的网站,于是我先连上代理服务器,告诉它我需要那个无法访问网站的内容,代理服务器去取回来,然后返回给我。 正向代理的过程,隐藏了真实的请求客户端,服务端不知道真实的客户端是谁 阅读全文
posted @ 2019-04-23 14:14 gao_jian 阅读(141) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2019-04-20 16:00 gao_jian 阅读(219) 评论(0) 推荐(0) 编辑