上一页 1 ··· 25 26 27 28 29 30 31 32 33 ··· 119 下一页
摘要: F-范数与2-范数是不一样的. 这是我前几天回答的一个问题,节选一部分: A是矩阵,则: 1-范数是:max(sum(abs(A)),就是对A的每列的绝对值求和 再求其中的最大值,也叫列范数 2-范数是:求A'*A 的特征值,找出其中的最大特征值,求其平方根 相当于max(sqrt(... 阅读全文
posted @ 2015-10-22 09:47 加拿大小哥哥 阅读(1056) 评论(0) 推荐(0) 编辑
摘要: for mm=1:num_m %电影编号是mm的训练集行号 ff= find(train_vec(:,2)==mm); %train_vec(ff,1) 行号对应的用户编号 count(train_vec(ff,1),mm) = train_vec(ff,3);end 桉的是电影数目,每次... 阅读全文
posted @ 2015-10-22 09:39 加拿大小哥哥 阅读(597) 评论(0) 推荐(0) 编辑
摘要: for iter = 1:num_iters %梯度下降 用户向量 for i = 1:m %返回有0有1 是逻辑值 ratedIndex1 = R_training(i,:)~=0 ; %U(i,:) * V' 第i个用户分别对每个电影的评... 阅读全文
posted @ 2015-10-21 22:05 加拿大小哥哥 阅读(805) 评论(0) 推荐(0) 编辑
摘要: 对p= 2,这称为弗罗贝尼乌斯范数(Frobenius norm)或希尔伯特-施密特范数( Hilbert–Schmidt norm),不过后面这个术语通常只用于希尔伯特空间。这个范数可用不同的方式定义: 这里A*表示A的共轭转置,σi是A的奇异值,并使用了迹函数。弗罗贝尼乌斯范数与Kn上欧几... 阅读全文
posted @ 2015-10-20 21:06 加拿大小哥哥 阅读(4329) 评论(2) 推荐(0) 编辑
摘要: 1.矩阵分解是推荐系统常用的手段,经常用来做用户偏好预测.在当下的推荐系统中,我们得到用户对于物品的评分矩阵往往是非常稀疏的,一个有m个用户,n个商品的网站,它所收集到的m*n用户评分矩阵R可能只有不到万分之一的数据非零.矩阵分解算法常用来构造出多个矩阵, 用这些矩阵相乘的结果R’来拟合原来的评... 阅读全文
posted @ 2015-10-16 15:45 加拿大小哥哥 阅读(462) 评论(0) 推荐(0) 编辑
摘要: 对于一个用户来说,他们可能有不同的兴趣。就以作者举的豆瓣书单的例子来说,用户A会关注数学,历史,计算机方面的书,用户B喜欢机器学习,编程语言,离散数学方面的书, 用户C喜欢大师Knuth, Jiawei Han等人的著作。那我们在推荐的时候,肯定是向用户推荐他感兴趣的类别下的图书。那么前提是我们... 阅读全文
posted @ 2015-10-16 15:23 加拿大小哥哥 阅读(2475) 评论(2) 推荐(0) 编辑
摘要: 一、理论二、数据集6.1101,17.5925.5277,9.13028.5186,13.6627.0032,11.8545.8598,6.82338.3829,11.8867.4764,4.34838.5781,126.4862,6.59875.0546,3.81665.7107,3.252214... 阅读全文
posted @ 2015-10-16 10:42 加拿大小哥哥 阅读(2415) 评论(0) 推荐(1) 编辑
摘要: 一、差分与微分 我自己的理解。二、求解 2.1 矩阵 这就是matlab的计算结果.太小的话放大些:c = 4 5 9 7 2 1 5 2 6>> [x,y]=gradient(c)x = 1.0000 2.5... 阅读全文
posted @ 2015-10-15 17:04 加拿大小哥哥 阅读(16727) 评论(0) 推荐(1) 编辑
摘要: 这里我想给大家介绍另外一种推荐系统,这种算法叫做潜在因子(Latent Factor)算法。这种算法是在NetFlix(没错,就是用大数据捧火《纸牌屋》的那家公司)的推荐算法竞赛中获奖的算法,最早被应用于电影推荐中。这种算法在实际应用中比现在排名第一的@邰原朗所介绍的算法误差(RMSE)会小不少... 阅读全文
posted @ 2015-10-15 16:24 加拿大小哥哥 阅读(12124) 评论(0) 推荐(4) 编辑
摘要: 阅读全文
posted @ 2015-10-15 15:55 加拿大小哥哥 阅读(1608) 评论(0) 推荐(0) 编辑
上一页 1 ··· 25 26 27 28 29 30 31 32 33 ··· 119 下一页