2020年6月10日

15 手写数字识别-小数据集

摘要: 5.线性回归算法: https://www.cnblogs.com/a132/p/13086236.html 6.逻辑归回: https://www.cnblogs.com/a132/p/13086370.html 1.手写数字数据集 from sklearn.datasets import loa 阅读全文

posted @ 2020-06-10 16:53 ztr啊仁 阅读(89) 评论(0) 推荐(0) 编辑

6.逻辑归回

摘要: 1.用自己的话描述一下,什么是逻辑回归,与线性回归对比,有什么不同? 答:逻辑回归(Logistic Regression)是用于处理因变量为分类变量的回归问题,常见的是二分类或二项分布问题,也可以处理多分类问题,它实际上是属于一种分类方法。 区别: 线性回归假设响应变量服从正态分布,逻辑回归假设响 阅读全文

posted @ 2020-06-10 16:48 ztr啊仁 阅读(182) 评论(0) 推荐(0) 编辑

5.线性回归算法

摘要: 1.本节重点知识点用自己的话总结出来,可以配上图片,以及说明该知识点的重要性 (1)回归跟分类的区别: (2)线性回归的定义以及多元一次线性的方程: (3)线性回归的机器预测跟真实值是存在一定的误差的: (4)梯度下降的动态图 (5)最小二乘法的梯度下降算法的公式理解: 2.思考线性回归算法可以用来 阅读全文

posted @ 2020-06-10 16:37 ztr啊仁 阅读(129) 评论(0) 推荐(0) 编辑

2020年6月3日

14 深度学习-卷积

摘要: 1.简述人工智能、机器学习和深度学习三者的联系与区别。 解: 联系:深度学习使得机器学习能够实现众多应用,并拓展了人工智能的领域范畴。 区别:人工智能是目的,是结果;深度学习、机器学习是方法,是工具;深度学习则是一种实现机器学习的技术;它适合处理大数据。 2. 全连接神经网络与卷积神经网络的联系与区 阅读全文

posted @ 2020-06-03 16:16 ztr啊仁 阅读(105) 评论(0) 推荐(0) 编辑

2020年5月27日

13-垃圾邮件分类2

摘要: 1.读取 2.数据预处理 3.数据划分—训练集和测试集数据划分 from sklearn.model_selection import train_test_split x_train,x_test, y_train, y_test = train_test_split(data, target, 阅读全文

posted @ 2020-05-27 16:21 ztr啊仁 阅读(115) 评论(0) 推荐(0) 编辑

2020年5月20日

12.朴素贝叶斯-垃圾邮件分类

摘要: 1. 读邮件数据集文件,提取邮件本身与标签。 列表 numpy数组 代码: import pandas as pddf = pd.read_csv('./data/SMSSpamCollection','\t',encoding='utf-8')print(df.to_numpy()) 结果: 2. 阅读全文

posted @ 2020-05-20 20:23 ztr啊仁 阅读(155) 评论(0) 推荐(0) 编辑

2020年5月10日

11.分类与监督学习,朴素贝叶斯分类算法

摘要: 1.理解分类与监督学习、聚类与无监督学习。 简述分类与聚类的联系与区别。 简述什么是监督学习与无监督学习。 答:联系:分类和聚类都包含一个过程:对于想要分析的目标点,都会在数据集中寻找离它最近的点。 区别:分类是事先定义好类别 ,类别数不变 ,常用算法是KNN算法,是一种无监督学习。 聚类则没有事先 阅读全文

posted @ 2020-05-10 17:08 ztr啊仁 阅读(187) 评论(0) 推荐(0) 编辑

2020年4月29日

9、主成分分析

摘要: 一、用自己的话描述出其本身的含义: 1、特征选择 2、PCA 答: 特征选择:将高维空间的样本通过映射或者是变换的方式转换到低维空间,达到降维的目的,然后通过特征选取删选掉冗余和不相关的特征来进一步降维。 PCA:主成分分析,是图像处理中经常用到的降维方法。比如:我们在处理有关数字图像处理方面的问题 阅读全文

posted @ 2020-04-29 17:27 ztr啊仁 阅读(165) 评论(0) 推荐(0) 编辑

8、特征选择

摘要: 用过滤法对以下数据进行特征选择: [[0,2,0,3], [0,1,4,3], [0,1,1,3]] 要求: 1、Variance Threshold(threshold =1.0) 2、将结果截图放上来(没有条件的备注说明原因)注意:每个人的电脑ID是不一样的 解: 源代码: 运行结果: 阅读全文

posted @ 2020-04-29 17:17 ztr啊仁 阅读(98) 评论(0) 推荐(0) 编辑

7.逻辑回归实践

摘要: 1.逻辑回归是怎么防止过拟合的?为什么正则化可以防止过拟合?(大家用自己的话介绍下) 答:防止过拟合: 通过特征选择,剔除一些不重要的特征,从而降低模型复杂度;检查业务逻辑,判断特征有效性,是否在用结果预测结果等; 如果还过拟合,那就看看是否使用了过度复杂的特征构造工程,比如,某两个特征相乘/除/加 阅读全文

posted @ 2020-04-29 17:07 ztr啊仁 阅读(149) 评论(0) 推荐(0) 编辑

导航