《机器学习实战》学习笔记第十四章 —— 利用SVD简化数据

 

相关博客:

吴恩达机器学习笔记(八) —— 降维与主成分分析法(PCA)

《机器学习实战》学习笔记第十三章 —— 利用PCA来简化数据

奇异值分解(SVD)原理与在降维中的应用

机器学习(29)之奇异值分解SVD原理与应用详解

 

 

主要内容:

一.SVD简介

二.U、∑、VT三个矩阵的求解

三.U、∑、VT三个矩阵的含义

四.SVD用于PCA降维

五.利用SVD优化推荐系统

六.利用SVD进行数据压缩

 

 

一.SVD简介

1.SVD分解能够将任意矩阵着矩阵(m*n)分解成三个矩阵U(m*m)、Σ(m*n)、VT(n*n),如下:

Datamxn = UmxmmxnVTnxn

2.Σ是一个对角矩阵,其对角元素是从大到小排列的,它们对应了Data矩阵的奇异值。这些奇异值的含义类似于PCA中特征值的含义。

3.V是一个列矩阵(因而VT是一个行矩阵)、是一个标准正交基,可用于将数据集Data矩阵进行列降维(即减少列数),其作用类似于PCA中的正交矩阵P。

4.U是一个列矩阵、是一个标准正交基,可用于将数据集Data矩阵进行行降维(即减少行数)。

 

 

二.U、∑、V三个矩阵的求解及其含义

可知:D = U∑VT

则:DTD = V∑TUTU∑VT = V∑T∑V = V∑2VT,因为U为正交矩阵,所以UTU = I, 因为∑为对角矩阵,所以∑T∑可表示为∑2

即:DTD = V∑2VT

可知DTD是一个方阵,方阵即可求出他的特征值和特征向量

(DTD)X = λX

其中∑2就是特征值λ构成的对角矩阵,V就是特征向量X构成的正交矩阵。

因此,可以用求解特征值和特征向量的方法求解矩阵∑、V。同理,通过求解DDT的特征值和特征向量可以求解出矩阵U。

 

 

三.U、∑、VT三个矩阵的含义

1.矩阵V的含义:根据上一节,可知矩阵V就是DTD的特征向量组成的正交矩阵,也就是正交基。而在PCA中,正交基P也是DTD的特征向量组成的正交矩阵。即,求解矩阵V实际上是在PAC中求解P。而正交基P正是用于对矩阵D进行列降维(减少列数,即减少属性个数),因此得出结论:矩阵V用于对矩阵D进行列降维。

2.矩阵U的含义:与矩阵V相对,矩阵U用于对矩阵D进行行降维(减少行数,即减少数据点个数)。

3.根据上一节,矩阵∑2就的对角元素就是DTD的特征值,那么矩阵∑的对角元素DTD的特征值的开根。∑的对角元素又称为奇异值。注意:求解U和求解V时∑2是不一样的,一个是m*m,一个是n*n,但它们的对角元素是一样的(min(m,n)个奇异值,缺少的用0表示)。

 

 

四.SVD用于PCA降维

1.SVD即奇异值分解,可以用来降维。利用PCA降维不挺好的,什么还要用SVD呢?

因为在使用PCA进行降维时,需要计算协方差矩阵XTX,而如果样本数、特征数都特别多时,计算XTX将非常耗时。但利用SVD,可以不用求出协方差矩阵XTX也能得到用于降维的矩阵。实际上,sklearn的PCA就是用SVD求解的。

2.类似于PCA,如果前k个奇异值所对应包含的信息超过了90%,那么可以只利用前k维进行数据压缩,如下:

在传输数据时,我们可以只传U(m*k)、Σ(k*k)、VT(k*n)这三个小矩阵。当接受完数据时,就可以将这三个小矩阵进行矩阵乘法,从而得到原始数据集矩阵Data的近似矩阵。这种方式大大压缩了存储(或传输)的数据量,但又保证了高相似度。

2.SVD可用于降维,将求得的U(m*m)矩阵保留前k列,然后将数据集Data映射的U(m*k)上,实现降维。同理矩阵V(m*m)。

 

 

五.利用SVD优化推荐系统

 1 def ecludSim(inA, inB):     # 计算两数组的相似度
 2     return 1.0 / (1.0 + la.norm(inA - inB))
 3 
 4 def pearsSim(inA, inB):  # 同上
 5     if len(inA) < 3: return 1.0
 6     return 0.5 + 0.5 * corrcoef(inA, inB, rowvar=0)[0][1]
 7 
 8 def cosSim(inA, inB):   # 同上
 9     num = float(inA.T * inB)
10     denom = la.norm(inA) * la.norm(inB)
11     return 0.5 + 0.5 * (num / denom)
12 
13 '''对单个物品进行预测评分'''
14 def standEst(dataMat, user, simMeas, item):
15     n = shape(dataMat)[1]       # 物品数
16     simTotal = 0.0; ratSimTotal = 0.0     # 总相似度、总评分, 预测频分 = 总评分/总相似度
17     for j in range(n):      # 枚举所有物品
18         userRating = dataMat[user, j]   # 获取该用户对此物品的评分
19         if userRating == 0: continue        # 如果未进行评分,则下一个物品
20         overLap = nonzero(logical_and(dataMat[:, item].A > 0, dataMat[:, j].A > 0))[0]  #寻找对两个物品都评了分的用户
21         if len(overLap) == 0:   #  计算相似度
22             similarity = 0
23         else:
24             similarity = simMeas(dataMat[overLap, item], dataMat[overLap, j])
25         print 'the %d and %d similarity is: %f' % (item, j, similarity)
26         simTotal += similarity
27         ratSimTotal += similarity * userRating
28     if simTotal == 0:
29         return 0
30     else:
31         return ratSimTotal / simTotal
32 
33 '''对单个物品进行预测评分,利用SVD对用户进行降维'''
34 def svdEst(dataMat, user, simMeas, item):
35     n = shape(dataMat)[1]
36     simTotal = 0.0; ratSimTotal = 0.0
37     U, Sigma, VT = la.svd(dataMat)  # 奇异值分解
38     Sig4 = mat(eye(4) * Sigma[:4])  # 取前四个奇异值进行降维
39     xformedItems = dataMat.T * U[:, :4] * Sig4.I  # 降维(用户那一栏减少了)
40     for j in range(n):
41         userRating = dataMat[user, j]
42         if userRating == 0 or j == item: continue
43         similarity = simMeas(xformedItems[item, :].T, xformedItems[j, :].T)
44         print 'the %d and %d similarity is: %f' % (item, j, similarity)
45         simTotal += similarity
46         ratSimTotal += similarity * userRating
47     if simTotal == 0:
48         return 0
49     else:
50         return ratSimTotal / simTotal
51 
52 '''推荐算法'''
53 def recommend(dataMat, user, N=3, simMeas=cosSim, estMethod=standEst):
54     unratedItems = nonzero(dataMat[user, :].A == 0)[1]  # 寻找该用户未评分的物品
55     if len(unratedItems) == 0: return 'you rated everything'
56     itemScores = []     # 预测评分列表
57     for item in unratedItems:   #枚举每一个未评分的物品,进行预测评分
58         estimatedScore = estMethod(dataMat, user, simMeas, item)
59         itemScores.append((item, estimatedScore))
60     return sorted(itemScores, key=lambda jj: jj[1], reverse=True)[:N]   # 对物品按预测评分进行降序排序

 

 

六.利用SVD进行数据压缩

 1 def printMat(inMat, thresh=0.8):      # 输出图案
 2     for i in range(32):
 3         for k in range(32):
 4             if float(inMat[i, k]) > thresh:
 5                 print 1,
 6             else:
 7                 print 0,
 8         print ''
 9 
10 '''图片压缩, numSV为压缩后的维度'''
11 def imgCompress(numSV=3, thresh=0.8):
12     myl = []
13     for line in open('0_5.txt').readlines():    # 读取图案
14         newRow = []
15         for i in range(32):
16             newRow.append(int(line[i]))
17         myl.append(newRow)
18     myMat = mat(myl)
19     print "****original matrix******"
20     printMat(myMat, thresh)
21     U, Sigma, VT = la.svd(myMat)    # 奇异值分解
22     SigRecon = mat(zeros((numSV, numSV)))
23     for k in range(numSV):  # 选取前numSV个奇异值进行压缩
24         SigRecon[k, k] = Sigma[k]
25     reconMat = U[:, :numSV] * SigRecon * VT[:numSV, :]      # 压缩后的图案
26     print "****reconstructed matrix using %d singular values******" % numSV
27     printMat(reconMat, thresh)

 

posted on 2018-08-30 10:28  h_z_cong  阅读(317)  评论(0编辑  收藏  举报

导航