11 2019 档案

协同过滤的itemCF,userCF区别适用场景
摘要:UserCF原理:UserCF给用户推荐那些和他具有共同兴趣爱好的用户喜欢的物品 ItemCF原理:ItemCF给用户推荐那些和他之前喜欢的物品类似的物品 UserCF的推荐更社会化,反映了用户所在的小型兴趣群体中物品的热门程度;而ItemCF的推荐更加个性化,反映了用户自己的兴趣传承 UserCF 阅读全文

posted @ 2019-11-06 22:45 朴素贝叶斯 阅读(1349) 评论(0) 推荐(0) 编辑

SVM核函数
摘要:★线性核函数: ★多项式核函数: ★径像基核函数/高斯核函数: ★拉普拉斯核函数: ★sigmod核函数: 吴恩达的见解:1. 如果Feature的数量很大,跟样本数量差不多,这时候选用LR或者是Linear Kernel的SVM2. 如果Feature的数量比较小,样本数量一般,不算大也不算小,选 阅读全文

posted @ 2019-11-06 21:42 朴素贝叶斯 阅读(541) 评论(0) 推荐(0) 编辑

牛顿法优缺点
摘要:梯度下降法利用目标函数的一阶偏导数信息、以负梯度方向作为搜索方向,只考虑目标函数在迭代点的局部性质; 牛顿法是梯度下降法的进一步发展,牛顿法不仅使用目标函数的一阶偏导数,还进一步利⽤了目标函数的二阶偏导数,这样就考虑了梯度变化的趋势,因而能更全面地确定合适的搜索方向加快收敛,它具二阶收敛速度。 但牛 阅读全文

posted @ 2019-11-06 19:54 朴素贝叶斯 阅读(6202) 评论(0) 推荐(1) 编辑

SVM的物理意义
摘要:对训练数据集找到几何间隔最大的超平面意味着以充分大的确信度对训练数据进行分类。即,不仅将正负实例例点分开,而且对最难分的实例例点(离超平面最近的点)也有足够大的确信度将它们分开。这样的超平面应该对未知的新实例有很好的分类预测能力。 参考:李航《统计学习方法》。 阅读全文

posted @ 2019-11-06 18:54 朴素贝叶斯 阅读(450) 评论(0) 推荐(0) 编辑

海森(Hessian)矩阵
摘要:在图的鞍点位置,⽬标函数在x轴⽅向上是局部最小值,但在y轴⽅向上是局部最⼤值。 假设⼀个函数的输⼊为k维向量,输出为标量,那么它的海森矩阵(Hessian matrix)有k个特征值(参⻅附录中“数学基础”⼀节)。该函数在梯度为0的位置上可能是局部最小值、局部最⼤值或者鞍点。 •当函数的海森矩阵在梯 阅读全文

posted @ 2019-11-06 14:46 朴素贝叶斯 阅读(3580) 评论(0) 推荐(1) 编辑

导航

< 2025年2月 >
26 27 28 29 30 31 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 1
2 3 4 5 6 7 8

统计

点击右上角即可分享
微信分享提示