推荐系统算法:LFM隐语义模型用梯度下降法实现 ----- 机器学习

LFM梯度下降法求解模型实现

0.引入依赖

import numpy as np
import pandas as pd

 

1.数据准备

# 评分矩阵R
R = np.array([[4,0,2,0,1],
            [0,2,3,0,0],
            [1,0,2,4,0],
            [5,0,0,3,1],
            [0,0,1,5,1],
            [0,3,2,4,1],])

R.shape #拿行和列
# R.shape[0] # 拿列
# len(R)# 拿行
# len(R[0])# 拿列

 

 

 

2.算法实现

'''
@输入参数:
R: M*N的评分矩阵
K: 隐特征向量个数
max_iter:最大迭代次数
alpha:步长
lamda:正则化系数

@输出:
分解之后的P,Q
P:初始化用户特征矩阵M*K
Q:初始化物品特征矩阵N*K
'''

# 给定超参数

K = 5
max_iter = 5000
alpha = 0.0002
lamda = 0.004

#核心算法
def LFM_grad_desc( R, K=2, max_iter=1000, alpah=0.0001, lamda=0.002 ):
    # 基本维度参数定义
    M = len(R)
    N = len(R[0])
    
    # P、Q的初始值,随机生成
    P = np.random.rand(M, K)
    Q = np.random.rand(N, K)
    Q =Q.T
    
    # 开始迭代
    for step in range(max_iter):
        # 对所有的用户u、物品i、进行遍历,对应的特征向量Pu、QI梯度下降
        for u in range(M):
            for i in range(N):
                # 对于每一个大于0 的评分,求出预测评分误差
                if R[u][i] > 0:
                    eui = np.dot( P[u,:], Q[:,i] ) - R[u][i]
                    
                    # 带入公式,按照梯度下降孙发更新当前的Pu、Qi
                    for k in range(K):
                        P[u][k] = P[u][k] - alpha * ( 2 * eui * Q[k][i] + 2 * lamda * P[u][k] )
                        Q[k][i] = Q[k][i] - alpha * ( 2 * eui * P[u][k] + 2 * lamda * Q[k][i] )
                
        #u、i遍历完成,所有特征向量更新完成,可以得到P、Q,可以计算预测评分矩阵
        predR = np.dot( P, Q )

        # 计算当前损失函数
        cost = 0
        for u in range(M):
            for i in range(N):
                if R[u][i] > 0:
                    cost += ( np.dot( P[u,:], Q[:,i] ) - R[u][i] ) ** 2 
                    #加上正则化项
                    for k in range(K):
                        cost += lamda * ( P[u][k] ** 2  +  Q[k][i] ** 2)
        if cost < 0.0001:
            break
                
                        
                
    return P, Q.T, cost

3.测试

P, Q, cost = LFM_grad_desc( R, K, max_iter, alpha, lamda )

print(P)
print(Q)
print(cost)

predR = P.dot(Q.T)

print(R)
predR

 

posted @ 2022-11-09 11:56  slowlydance2me  阅读(51)  评论(0编辑  收藏  举报