微信扫一扫打赏支持
上一页 1 ··· 14 15 16 17 18 19 20 21 22 ··· 498 下一页
摘要: 机器学习实例 3.2、朴素贝叶斯之新浪新闻分类 一、总结 一句话总结: 在训练朴素贝叶斯分类器之前,要处理好训练集,【文本的清洗】还是有很多需要学习的东西。【去高频词汇】数量的不同,对结果也是有影响的的。 根据提取的分类特征将【文本向量化】,然后训练朴素贝叶斯分类器。 【拉普拉斯平滑】对于改善朴素贝 阅读全文
posted @ 2020-12-08 22:54 范仁义 阅读(837) 评论(0) 推荐(0) 编辑
摘要: Python人工智能参考 朴素贝叶斯进行垃圾邮件分类最最最简单实战 一、总结 一句话总结: a、用最简单的实例来演示 算法是最方便的能洞悉算法实质的方式 b、朴素贝叶斯注意有多个词表,而不是一个混合的词表 1、朴素贝叶斯进行垃圾邮件分类的计算的时候的注意点是什么? 【P(关键词1,关键词2))可以不 阅读全文
posted @ 2020-12-08 20:16 范仁义 阅读(461) 评论(0) 推荐(0) 编辑
摘要: 机器学习实例 3.1、朴素贝叶斯基础 一、总结 一句话总结: 朴素贝叶斯算法是有监督的学习算法,解决的是【分类问题】,如客户是否流失、是否值得投资、信用等级评定等多分类问题。 该算法的优点在于【简单易懂、学习效率高】、在某些领域的分类问题中能够与决策树、神经网络【相媲美】。 但由于该算法以【自变量之 阅读全文
posted @ 2020-12-08 20:11 范仁义 阅读(211) 评论(0) 推荐(0) 编辑
摘要: 机器学习实例 2.1、决策树(实战) 一、总结 一句话总结: 决策树【构建】、决策树【可视化】、使用决策树进行【分类预测】、决策树的【存储和读取】、 【sklearn】实战之预测隐形眼镜类型 本来是想继续讨论决策树的过拟合问题,但是看到【《机器学习实战》】将此部分内容放到了第九章,那我也放在后面好了 阅读全文
posted @ 2020-12-08 17:15 范仁义 阅读(1378) 评论(0) 推荐(0) 编辑
摘要: python的pickle模块 一、总结 一句话总结: 该pickle模块实现了用于【序列化和反序列化】Python对象结构的【二进制协议】。 “Pickling”是将Python对象层次结构转换为字节流的过程, “unpickling”是反向操作,从而将【字节流(来自二进制文件或类似字节的对象)】 阅读全文
posted @ 2020-12-08 16:10 范仁义 阅读(533) 评论(0) 推荐(0) 编辑
摘要: 机器学习实例 2.1、决策树(介绍) 一、总结 一句话总结: 得到原始数据集,然后基于最好的属性值划分数据集,由于特征值可能多于两个,因此可能存在【大于两个分支的数据集划分】。第一次划分之后,数据集被向下传递到树的分支的下一个结点。在这个结点上,我们可以【再次划分】数据。因此我们可以采用【递归】的原 阅读全文
posted @ 2020-12-07 22:27 范仁义 阅读(259) 评论(0) 推荐(0) 编辑
摘要: 如何计算熵 一、总结 一句话总结: 【就是信息乘概率然后求和】:$$H = - \sum _ { i = 1 } ^ { n } p ( x _ { i } ) \log _ { 2 } p ( x _ { i } )$$ 【所有的信息期望值】:为了计算熵,我们需要计算所有类别所有可能值包含的【信息 阅读全文
posted @ 2020-12-07 04:55 范仁义 阅读(4223) 评论(0) 推荐(0) 编辑
摘要: sklearn库简单介绍 一、总结 一句话总结: sklearn库的共分为6大部分,分别用于完成【数据的预处理、模型选择、分类任务、回归任务、聚类任务和降维任务】。 【各种机器学习方法很多都有现成的】,非常非常好用的一个库 1、sklearn库-分类任务? 比如最近邻、支持向量机、决策树、朴素贝叶斯 阅读全文
posted @ 2020-12-06 23:59 范仁义 阅读(1580) 评论(0) 推荐(0) 编辑
摘要: 机器学习实例 1.3、k-近邻算法(数字识别) 一、总结 一句话总结: 原理非常简单,这里的每个数字都是1024维的向量,由0和1组成,【求解的时候就是求测试的点(那个1024维数据)和所有训练数据(也是一个个1024维数据)的距离】,然后根据【最近的k个】来确定分类即可 相比于简单knn和海伦约会 阅读全文
posted @ 2020-12-06 23:45 范仁义 阅读(382) 评论(0) 推荐(0) 编辑
摘要: 机器学习实例 1.2、k-近邻算法(海伦约会) 一、总结 一句话总结: 核心代码就是直接调用 【简单k-nn】 里面的那个 【classify0方法】,非常简单 也就是说,k-nn在实战中也是【非常非常简单】的,就是【选最近邻的k个】来确定分类 def classify0(inX, dataSet, 阅读全文
posted @ 2020-12-06 22:22 范仁义 阅读(302) 评论(0) 推荐(0) 编辑
上一页 1 ··· 14 15 16 17 18 19 20 21 22 ··· 498 下一页