摘要: >> [x,y]=meshgrid(-1:0.1:2,-1:0.1:2);>> z = -x-1.5*y+2;>> surf(x,y,z) 现在有:x=0.7;y=0.9 求出:z=-0.05 在书中,如果Z<=0,则结果预测为 成年猫。因此决策平面应该整体向上移动0.05,所有在决策平面及决策平面 阅读全文
posted @ 2016-03-19 21:06 qqhfeng16 阅读(1457) 评论(0) 推荐(0) 编辑
摘要: 如果想判断一个点(x,y)对应的ZV值是否在平面上方、平面上、平面下方,只要将(x,y)带入方程,得到z。 如果ZV大于>Z,则在平面上方;如果ZV<Z,则在方面下方;若ZV=Z,则在平面上。 clear all[x,y]=meshgrid(linspace(-15,15));%设定xy范围z=si 阅读全文
posted @ 2016-03-19 20:43 qqhfeng16 阅读(380) 评论(0) 推荐(0) 编辑
摘要: 公式为:(X-mean)/std 计算时对每个属性/每列分别进行。 将数据按期属性(按列进行)减去其均值,并处以其方差。得到的结果是,对于每个属性/每列来说所有数据都聚集在0附近,方差为1。 实现时,有两种不同的方式: 使用sklearn.preprocessing.scale()函数,可以直接将给 阅读全文
posted @ 2016-03-19 12:04 qqhfeng16 阅读(1382) 评论(0) 推荐(0) 编辑
摘要: 注意1:书上说consin PCA 比缺省的linear PCA要好,是不是consin PCA更紧致,数据不发散. 始终搞不懂什么时候用,什么时候不用 fit(X, y=None)Fit the model from data in X.ParametersX: array-like, shape 阅读全文
posted @ 2016-03-19 11:43 qqhfeng16 阅读(5252) 评论(0) 推荐(0) 编辑
摘要: >> import numpy as np >>> A1_mean = [1, 1] >>> A1_cov = [[2, .99], [1, 1]]>>> A1 = np.random.multivariate_normal(A1_mean, A1_cov, 10) #依据指定的均值和协方差生成数据 阅读全文
posted @ 2016-03-19 11:04 qqhfeng16 阅读(4467) 评论(0) 推荐(0) 编辑
摘要: 2)奇异值: 下面谈谈奇异值分解。特征值分解是一个提取矩阵特征很不错的方法,但是它只是对方阵而言的,在现实的世界中,我们看到的大部分矩阵都不是方阵,比如说有N个学生,每个学生有M科成绩,这样形成的一个N * M的矩阵就不可能是方阵,我们怎样才能描述这样普通的矩阵呢的重要特征呢?奇异值分解可以用来干这 阅读全文
posted @ 2016-03-19 00:44 qqhfeng16 阅读(349) 评论(0) 推荐(0) 编辑
摘要: >> X = rand(5,7) X = 0.9797 0.1365 0.6614 0.5828 0.2259 0.2091 0.5678 0.2714 0.0118 0.2844 0.4235 0.5798 0.3798 0.7942 0.2523 0.8939 0.4692 0.5155 0.7 阅读全文
posted @ 2016-03-19 00:28 qqhfeng16 阅读(664) 评论(0) 推荐(0) 编辑
摘要: >> s = rand(5,7) s = 0.4186 0.8381 0.5028 0.1934 0.6979 0.4966 0.6602 0.8462 0.0196 0.7095 0.6822 0.3784 0.8998 0.3420 0.5252 0.6813 0.4289 0.3028 0.8 阅读全文
posted @ 2016-03-19 00:23 qqhfeng16 阅读(697) 评论(0) 推荐(0) 编辑
摘要: 版权声明:本文为博主原创文章,未经博主允许不得转载。 SVD分解 SVD分解是LSA的数学基础,本文是我的LSA学习笔记的一部分,之所以单独拿出来,是因为SVD可以说是LSA的基础,要理解LSA必须了解SVD,因此将LSA笔记的SVD一节单独作为一篇文章。本节讨论SVD分解相关数学问题,一个分为3个 阅读全文
posted @ 2016-03-19 00:03 qqhfeng16 阅读(1527) 评论(0) 推荐(0) 编辑