摘要:
1.手写数字数据集 from sklearn.datasets import load_digits digits = load_digits() 2.图片数据预处理 x:归一化MinMaxScaler() y:独热编码OneHotEncoder()或to_categorical 训练集测试集划分 阅读全文
摘要:
1.简述人工智能、机器学习和深度学习三者的联系与区别。 人工智能是计算机科学的一个分支,它企图了解智能的本质。 机器学习属于人工智能的一个分支,也是人工智能的和核心。 深度学习是利用深度神经网络来解决特征表达的一种学习过程。 2. 全连接神经网络与卷积神经网络的联系与区别。 在全连接神经网络中,每两 阅读全文
摘要:
1.读取 2.数据预处理 3.数据划分—训练集和测试集数据划分 from sklearn.model_selection import train_test_split x_train,x_test, y_train, y_test = train_test_split(data, target, 阅读全文
摘要:
1. 读邮件数据集文件,提取邮件本身与标签。 列表 numpy数组 2.邮件预处理 邮件分句 名子分词 去掉过短的单词 词性还原 连接成字符串 传统方法来实现 nltk库的安装与使用 pip install nltk import nltk nltk.download() # sever地址改成 h 阅读全文
摘要:
1.理解分类与监督学习、聚类与无监督学习。 简述分类与聚类的联系与区别。 简述什么是监督学习与无监督学习。 分类与聚类的联系:都要从数据集中找到离目标点最近的电。 分类与聚类的区别:1、分类:是为了确定点的类别。已经知道类别。 2、聚类:是为了将一系列的点分成不同类。没有类别。 监督学习:根据数据集 阅读全文
摘要:
一、用自己的话描述出其本身的含义: 1、特征选择 从多个特征中选择一部分特征作为训练集的特征,特征在选择前后不改变值。 2、PCA PCA是特征降维,降维是从一个维度空间映射到另一个维度空间,也就是高维度数据集映射到低维度空间的同时,尽可能的保留的变量。 二、并用自己的话阐述出两者的主要区别 特征选 阅读全文
摘要:
1.逻辑回归是怎么防止过拟合的?为什么正则化可以防止过拟合?(大家用自己的话介绍下) 在算法上,可以通过正则化来防止过拟合;在数据上可以通过加大样本量或者减少特征量来防止过拟合。正则化是通过让跟多的参数变为0或者参数趋于0,一定程度上减少过拟合的情况。 2.用logiftic回归来进行实践操作,数据 阅读全文
摘要:
用过滤法对以下数据进行特征选择: [[0,2,0,3], [0,1,4,3], [0,1,1,3]] 要求: 1、Variance Threshold(threshold =1.0) 2、将结果截图放上来(没有条件的备注说明原因)注意:每个人的电脑ID是不一样的 代码如下: 结果如下: 阅读全文
摘要:
1.本节重点知识点用自己的话总结出来,可以配上图片,以及说明该知识点的重要性 回归属于机器学习的监督学习,而回归主要包括线性回归、Logistic回归和回归的评估 回归和分类的区别: 分类和回归的区别在于输出变量的类型(预测的目标函数是否连续)。 定量输出成为回归,或者说是连续变量预测。 定性输出称 阅读全文
摘要:
1. 应用K-means算法进行图片压缩 读取一张图片 观察图片文件大小,占内存大小,图片数据结构,线性化 用kmeans对图片像素颜色进行聚类 获取每个像素的颜色类别,每个类别的颜色 压缩图片生成:以聚类中收替代原像素颜色,还原为二维 观察压缩图片的文件大小,占内存大小 代码: from skle 阅读全文