摘要: 一、选题与意义 1.Hadoop平台应用 2.Kaggle分析数据项目 简要说明理由与意义。 二、实践方案 三、实践任务分解 根据所选的题目,明确实验步骤,分解任务到每天。 四、实践计划 按任务分解撰写计划表,每天按计划表开展工作。 第天根据实际情况更新计划表,有必要时调整。 1、选题:淘宝双11数 阅读全文
posted @ 2020-06-23 21:41 林文文 阅读(201) 评论(0) 推荐(0) 编辑
摘要: 补之前的: 2.机器学习相关数学基础(回老家没带电脑) 6.逻辑回归(这个作业是忘记时间) 15.手写数字识别-小数据集 1.手写数字数据集 from sklearn.datasets import load_digits digits = load_digits() 2.图片数据预处理 x:归一化 阅读全文
posted @ 2020-06-14 20:58 林文文 阅读(191) 评论(0) 推荐(0) 编辑
摘要: 1.学习记录 2、用自己的话总结“梯度”,“梯度下降”和“贝叶斯定理”, 梯度:在指定方向每单位距离的数值变化 梯度下降:简单来说就是解决一个问题的时候,寻找他的最优解,也可能是局部最优 贝叶斯定理:p(A|B)=P(A)x[p(B|A)/p(B)] 阅读全文
posted @ 2020-06-14 20:56 林文文 阅读(109) 评论(0) 推荐(0) 编辑
摘要: 1.用自己的话描述一下,什么是逻辑回归,与线性回归对比,有什么不同? 逻辑回归是一种广义的线性回归分析模型,要求因变量必须是连续性数据变量。常用于数据挖掘,疾病自动诊断,经济预测等领域。 线性回归是利用数理统计中回归分析,来确定两种或两种以上变量间相互zd依赖的定量关系的一种统计分析方法,要求因变量 阅读全文
posted @ 2020-06-07 19:11 林文文 阅读(174) 评论(0) 推荐(0) 编辑
摘要: 2.机器学习相关数学基础 1)贴上视频学习笔记,要求真实,不要抄袭,可以手写拍照。 2.用自己的话总结“梯度”,“梯度下降”和“贝叶斯定理”,可以word编辑,可做思维导图,可以手写拍照,要求言简意赅、排版整洁。 梯度:可以说这是一个向量,梯度的方向与取得最大方向导数的方向一致,模为方向导数的最大值 阅读全文
posted @ 2020-06-07 19:09 林文文 阅读(124) 评论(0) 推荐(0) 编辑
摘要: 补第六次作业:https://www.cnblogs.com/lwwwjl123/p/13061751.html 1.简述人工智能、机器学习和深度学习三者的联系与区别。 人工智能 机器学习 深度学习三者的关系是,人工智能包括机器学习,而机器学习包括深度学习。深度学习是机器学习众多算法中的一类,即通过 阅读全文
posted @ 2020-06-07 19:06 林文文 阅读(165) 评论(0) 推荐(0) 编辑
摘要: 1.读取 2.数据预处理 # 词性还原def get_wordnet_pos(treebank_tag): if treebank_tag.startswith('J'): return nltk.corpus.wordnet.ADJ elif treebank_tag.startswith('V' 阅读全文
posted @ 2020-05-23 19:06 林文文 阅读(142) 评论(0) 推荐(0) 编辑
摘要: 朴素贝叶斯垃圾邮件分类 读邮件数据集文件,提取邮件本身与标签。 2.邮件预处理 2.1传统方法 2.1 nltk库 分词nltk.sent_tokenize(text) #对文本按照句子进行分割 nltk.word_tokenize(sent) #对句子进行分词 2.2 punkt 停用词from 阅读全文
posted @ 2020-05-17 21:40 林文文 阅读(142) 评论(0) 推荐(0) 编辑
摘要: 1.理解分类与监督学习、聚类与无监督学习。 简述分类与聚类的联系与区别。 简述什么是监督学习与无监督学习。 分类与聚类的区别:是否有已知分类的条件。分类没有,聚类有。 监督学习:已知某些类别的情况下,即具有事先标记的数据,通过特征分析来学习的一类算法。 无监督学习:不具有事先标签的数据,缺乏先验知识 阅读全文
posted @ 2020-05-13 20:21 林文文 阅读(169) 评论(0) 推荐(0) 编辑
摘要: 一、用自己的话描述出其本身的含义: 1、特征选择 通过特征选取删选掉冗余和不相关的特征来进一步降维。 2、PCA 将n维特征映射到k维上(k<n),这k维是全新的正交特征。这k维特征称为主元,是重新构造出来的k维特征,而不是简单地从n维特征中去除其余n-k维特征。 二、并用自己的话阐述出两者的主要区 阅读全文
posted @ 2020-05-04 19:30 林文文 阅读(158) 评论(0) 推荐(0) 编辑