上一页 1 ··· 52 53 54 55 56

2021年3月1日

摘要: 阅读全文
posted @ 2021-03-01 20:26 朴素贝叶斯 阅读(40) 评论(0) 推荐(0) 编辑
摘要: 返回出现次数最多的3个元素,函数的返回结果为一个列表,列表的元素为一个二元元组,按照出现的次数从大到小排列,第一维为元素,第二维为出现的次数 阅读全文
posted @ 2021-03-01 20:02 朴素贝叶斯 阅读(484) 评论(0) 推荐(0) 编辑
摘要: python列表函数&方法 Python包含以下函数: len(list):列表元素个数 max(list):返回列表元素最大值 min(list):返回列表元素最小值 list(seq):将元组转换为列表 Python包含以下方法: list.count(obj):统计某个元素在列表中出现的次数 阅读全文
posted @ 2021-03-01 19:23 朴素贝叶斯 阅读(160) 评论(0) 推荐(0) 编辑

2019年11月6日

摘要: UserCF原理:UserCF给用户推荐那些和他具有共同兴趣爱好的用户喜欢的物品 ItemCF原理:ItemCF给用户推荐那些和他之前喜欢的物品类似的物品 UserCF的推荐更社会化,反映了用户所在的小型兴趣群体中物品的热门程度;而ItemCF的推荐更加个性化,反映了用户自己的兴趣传承 UserCF 阅读全文
posted @ 2019-11-06 22:45 朴素贝叶斯 阅读(1277) 评论(0) 推荐(0) 编辑
摘要: ★线性核函数: ★多项式核函数: ★径像基核函数/高斯核函数: ★拉普拉斯核函数: ★sigmod核函数: 吴恩达的见解:1. 如果Feature的数量很大,跟样本数量差不多,这时候选用LR或者是Linear Kernel的SVM2. 如果Feature的数量比较小,样本数量一般,不算大也不算小,选 阅读全文
posted @ 2019-11-06 21:42 朴素贝叶斯 阅读(502) 评论(0) 推荐(0) 编辑
摘要: 梯度下降法利用目标函数的一阶偏导数信息、以负梯度方向作为搜索方向,只考虑目标函数在迭代点的局部性质; 牛顿法是梯度下降法的进一步发展,牛顿法不仅使用目标函数的一阶偏导数,还进一步利⽤了目标函数的二阶偏导数,这样就考虑了梯度变化的趋势,因而能更全面地确定合适的搜索方向加快收敛,它具二阶收敛速度。 但牛 阅读全文
posted @ 2019-11-06 19:54 朴素贝叶斯 阅读(5960) 评论(0) 推荐(0) 编辑
摘要: 对训练数据集找到几何间隔最大的超平面意味着以充分大的确信度对训练数据进行分类。即,不仅将正负实例例点分开,而且对最难分的实例例点(离超平面最近的点)也有足够大的确信度将它们分开。这样的超平面应该对未知的新实例有很好的分类预测能力。 参考:李航《统计学习方法》。 阅读全文
posted @ 2019-11-06 18:54 朴素贝叶斯 阅读(439) 评论(0) 推荐(0) 编辑
摘要: 在图的鞍点位置,⽬标函数在x轴⽅向上是局部最小值,但在y轴⽅向上是局部最⼤值。 假设⼀个函数的输⼊为k维向量,输出为标量,那么它的海森矩阵(Hessian matrix)有k个特征值(参⻅附录中“数学基础”⼀节)。该函数在梯度为0的位置上可能是局部最小值、局部最⼤值或者鞍点。 •当函数的海森矩阵在梯 阅读全文
posted @ 2019-11-06 14:46 朴素贝叶斯 阅读(3393) 评论(0) 推荐(1) 编辑
上一页 1 ··· 52 53 54 55 56

导航