摘要:
1.选择使用什么数据,有哪些字段,多大数据量。 选用美国新冠数据集,变量有日期(date),县(county), 国家、州(state),确诊情况(cases),死亡人数(deaths),共158981条数据。 2.准备分析哪些问题?(8个以上) (1) 每日新增确认人数趋势,以拆线图形式呈现。 ( 阅读全文
摘要:
1. 安装启动检查Mysql服务。##netstat -tunlp (3306) cd /usr/local/hive/lib ls mysql* cp mysql-connector-java-5.1.40-bin.jar /usr/local/spark/jars/ cd /usr/local/ 阅读全文
摘要:
1.生成“表头” from pyspark.sql.types import IntegerType,StringType,StructField,StructTypefrom pyspark.sql import Rowfields=[StructField('name',StringType() 阅读全文
摘要:
一. 读学生课程分数文件chapter4-data01.txt,创建DataFrame。 1.生成“表头” 2.生成“表中的记录” 3.把“表头”和“表中的记录”拼装在一起 用DataFrame的操作或SQL语句完成以下数据分析要求,并和用RDD操作的实现进行对比: 每个分数+5分。 df_scs. 阅读全文
摘要:
1.pandas df 与 spark df的相互转换 3.1 利用反射机制推断RDD模式 sc创建RDD 转换成Row元素,列名=值 spark.createDataFrame生成df df.show(), df.printSchema() 3.2 使用编程方式定义RDD模式 生成“表头” fie 阅读全文
摘要:
Spark SQL DataFrame的基本操作 文件路径: file='url' 文本: json: 创建: spark.read.text(file) spark.read.json(file) 打印数据 df.show()默认打印前20条数据,df.show(n) 文本: json: 打印概要 阅读全文
摘要:
一、词频统计: 1.读文本文件生成RDD lines 代码:lines = sc.textFile('file:///home/hadoop/word.txt') 2.将一行一行的文本分割成单词 words flatmap() 代码:words=lines.flatMap(lambda line:l 阅读全文
摘要:
一、词频统计: 1.读文本文件生成RDD lines 代码:lines = sc.textFile('file:///home/hadoop/word.txt') 2.将一行一行的文本分割成单词 words flatmap() 代码:words=lines.flatMap(lambda line:l 阅读全文
摘要:
一、filter,map,flatmap练习: 1.读文本文件生成RDD lines 代码:lines = sc.textFile('file:///home/hadoop/word.txt') 2.将一行一行的文本分割成单词 words 代码:words=lines.flatMap(lambda 阅读全文
摘要:
1. 准备文本文件 从文件创建RDD lines=sc.textFile() 筛选出含某个单词的行 lines.filter()lambda 参数:条件表达式 2. 生成单词的列表从列表创建RDD words=sc.parallelize()筛选出长度大于2 的单词 words.filter() 3 阅读全文