摘要:
《Machine Learning in Action》 为防止连续乘法时每个乘数过小,而导致的下溢出(太多很小的数相乘结果为0,或者不能正确分类) 训练: 分类: 注意:上述代码中标有注意的地方,是公式中概率连乘变成了对数概率相加。此举可以在数学上证明不会影响分类结果,且在实际计算中,避免了因概率 阅读全文
posted @ 2017-08-21 23:01 AYE89 阅读(1236) 评论(0) 推荐(0) 编辑
|
||
摘要:
《Machine Learning in Action》 为防止连续乘法时每个乘数过小,而导致的下溢出(太多很小的数相乘结果为0,或者不能正确分类) 训练: 分类: 注意:上述代码中标有注意的地方,是公式中概率连乘变成了对数概率相加。此举可以在数学上证明不会影响分类结果,且在实际计算中,避免了因概率 阅读全文
posted @ 2017-08-21 23:01 AYE89 阅读(1236) 评论(0) 推荐(0) 编辑
摘要:
区别: 几种朴素贝叶斯分类器的区别在于对于分布的假设,即假设满足的形式。 一、高斯NB 导入 假设特征的似然函数满足, 和 采用“最大似然估计” 二、Multinomial NB 导入 特征是离散值,通常用样本的概率去估计 为避免有的特征值缺省,一般对样本的概率做Laplace平滑:(a=1时) 三 阅读全文
posted @ 2017-08-21 22:37 AYE89 阅读(2962) 评论(0) 推荐(0) 编辑
摘要:
原型 class sklearn.naive_bayes.MultinomialNB(alpha=1.0, fit_prior=True, class_prior=None) 参数 alpha : float, optional (default=1.0) Additive (Laplace/Lid 阅读全文
posted @ 2017-08-21 20:23 AYE89 阅读(10066) 评论(0) 推荐(0) 编辑 |
||