摘要: import pandas as pd #显示所有行(参数设置为None代表显示所有行,也可以自行设置数字) pd.set_option('display.max_columns',None) #显示所有列 pd.set_option('display.max_rows',None) #设置数据的显 阅读全文
posted @ 2019-05-27 10:21 zwtzz 阅读(223) 评论(0) 推荐(0) 编辑
该文被密码保护。 阅读全文
posted @ 2019-05-22 11:11 zwtzz 阅读(13) 评论(0) 推荐(0) 编辑
摘要: make_blobs会根据用户指定的特征数量、中心点数量、范围等来生成几类数据,这些数据可用于测试聚类算法的效果。 n_samples是待生成的样本数量,n_features是每个样本的特征数,centers是簇数量,也可以直接指定每个簇的中心点centers=[[-1,1],[1,2],[3,3] 阅读全文
posted @ 2019-04-17 21:42 zwtzz 阅读(2066) 评论(0) 推荐(0) 编辑
摘要: https://www.cnblogs.com/zy230530/p/7029025.html k-means算法中的k表示聚类为k个簇,means代表取每一个聚类中数据的均值作为该簇的中心(质心)即用每一个类的质心对该簇进行描述。k-means算法的原理比较简单,但它有缺陷,即其可能收敛到局部最优 阅读全文
posted @ 2019-04-17 20:25 zwtzz 阅读(2691) 评论(0) 推荐(0) 编辑
摘要: 监督学习:训练集的每一个数据已经有特征和标签,即有输入数据和输出数据,通过学习训练集中输入数据和输出数据的关系,生成合适的函数将输入映射到输出。比如分类、回归。 无监督学习:训练集的每一个数据都只有特征,即只有输入数据,算法需要学习训练集中的特征关系,进行建模,试图使类内差距最小、类间差距最大。比如 阅读全文
posted @ 2019-04-17 16:57 zwtzz 阅读(2172) 评论(0) 推荐(1) 编辑
摘要: ————————— 阅读全文
posted @ 2019-04-15 21:11 zwtzz 阅读(1313) 评论(0) 推荐(0) 编辑
摘要: 4.1 不含有特征向量相同但标记不同的冲突数据 and 决策树按照属性特征来划分,相同属性特征的样本最终会进入同一个叶子节点 >- 如果含有特征向量相同但标记不同的冲突数据 >- 必然至少存在一对样本,属性相同而分类不同,即产生了训练误差 >- 不含有特征向量相同但标记不同的冲突数据 4.2 简单的 阅读全文
posted @ 2019-04-15 21:10 zwtzz 阅读(2648) 评论(0) 推荐(0) 编辑
摘要: http://archive.ics.uci.edu/ml/index.php 阅读全文
posted @ 2019-04-14 16:15 zwtzz 阅读(413) 评论(0) 推荐(0) 编辑
摘要: 3.1 式3.2 $f(x)=\omega ^{T}x+b$ 中,$\omega ^{T}$ 和b有各自的意义,简单来说,$\omega ^{T}$ 决定学习得到模型(直线、平面)的方向,而b则决定截距,当学习得到的模型恰好经过原点时,可以不考虑偏置项b。偏置项b实质上就是体现拟合模型整体上的浮动, 阅读全文
posted @ 2019-04-14 16:14 zwtzz 阅读(6496) 评论(2) 推荐(1) 编辑
摘要: 梯度下降法 https://www.jianshu.com/p/c7e642877b0e 牛顿法 https://blog.csdn.net/sigai_csdn/article/details/80678812 https://blog.csdn.net/ccnt_2012/article/det 阅读全文
posted @ 2019-04-13 21:26 zwtzz 阅读(255) 评论(0) 推荐(0) 编辑