摘要:
大作业: 1.选择使用什么数据,有哪些字段,多大数据量。 选择美国新冠疫情统计数据。 字段结构为(以前两行为例) date, county, state, cases, deaths2020/1/21,Snohomish,Washington, 1, 0 数据大小5MB 2.准备分析哪些问题?(8个 阅读全文
摘要:
spark连接mysql数据库 1.启动Mysql服务。 2.spark 连接mysql驱动程序,找到mysql-connector-java-8.0.22.jar并将mysql-connector-java-8.0.22.jar复制到/usr/local/spark/jars目录下。 3.启动 M 阅读全文
摘要:
一.读学生课程分数文件chapter4-data01.txt,创建DataFrame。 1.用DataFrame的操作或SQL语句完成以下数据分析要求: 2.每个分数+5分。 3.总共有多少学生? 4.开设了多少门课程? 5.每个学生选修了多少门课? 6.每门课程有多少个学生选? 7.每门课程大于9 阅读全文
摘要:
0.前次作业:从文件创建DataFrame 1.pandas df 与 spark df的相互转换 df_s=spark.createDataFrame(df_p) df_p=df_s.toPandas() 2. Spark与Pandas中DataFrame对比 http://www.lining0 阅读全文
摘要:
一. 1.Spark SQL出现的 原因是什么? spark sql是从shark发展而来。Shark为了实现Hive兼容,在HQL方面重用了Hive中HQL的解析、逻辑执行计划翻译、执行计划优化等逻辑,可以近似认为仅将物理执行计划从MR作业替换成了Spark作业(辅以内存列式存储等各种和Hive关 阅读全文
摘要:
一、词频统计 1.读文本文件生成RDD lines 2.将一行一行的文本分割成单词 words flatmap() 3.全部转换为小写 lower() 4.去掉长度小于3的单词 filter() 5.去掉停用词 6.转换成键值对 map() 7.统计词频 reduceByKey() 8.按字母顺序排 阅读全文
摘要:
一、词频统计: 1.读文本文件生成RDD lines 2.将一行一行的文本分割成单词 words flatmap() 3.全部转换为小写 lower() 4.去掉长度小于3的单词 filter() 5.去掉停用词 6.转换成键值对 map() 7.统计词频 reduceByKey() 二、学生课程分 阅读全文
摘要:
一、filter,map,flatmap练习: 1.读文本文件生成RDD lines 2.将一行一行的文本分割成单词 words 3.全部转换为小写 4.去掉长度小于3的单词 5.去掉停用词 二、groupByKey练习 6.练习一的生成单词键值对 7.对单词进行分组 8.查看分组结果 学生科目成绩 阅读全文
摘要:
1. 准备文本文件从文件创建RDD lines=sc.textFile()筛选出含某个单词的行 lines.filter()lambda 参数:条件表达式 2. 生成单词的列表从列表创建RDD words=sc.parallelize()筛选出长度大于2 的单词 words.filter() 3. 阅读全文
摘要:
1. 阐述Hadoop生态系统中,HDFS, MapReduce, Yarn, Hbase及Spark的相互关系,为什么要引入Yarn和Spark。 Hadoop:Hadoop生态圈(或者泛生态圈)基本上都是为了处理超过单机尺度的数据处理而诞生的。不是一个工具,也不是一种技术,是一种技术的合称HDF 阅读全文