会员
周边
捐助
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
王仙森还没来呢
博客园
首页
新随笔
联系
管理
订阅
1
2
下一页
2021年6月11日
10 期末大作业
摘要: 1.选择使用什么数据,有哪些字段,多大数据量。 选用美国新冠数据集,变量有日期(date),县(county), 国家、州(state),确诊情况(cases),死亡人数(deaths),共158981条数据。 2.准备分析哪些问题?(8个以上) (1) 统计美国截止每日的累计确诊人数和累计死亡人数
阅读全文
posted @ 2021-06-11 15:47 ZiKiii
阅读(60)
评论(0)
推荐(0)
编辑
2021年5月31日
09 spark连接mysql数据库
摘要: 1. 安装启动检查Mysql服务。##netstat -tunlp (3306) cd /usr/local/hive/lib ls mysql* cp mysql-connector-java-5.1.40-bin.jar /usr/local/spark/jars/ cd /usr/local/
阅读全文
posted @ 2021-05-31 17:20 ZiKiii
阅读(65)
评论(0)
推荐(0)
编辑
2021年5月19日
08 学生课程分数的Spark SQL分析
摘要: 读学生课程分数文件chapter4-data01.txt,创建DataFrame。 1.生成“表头” 2.生成“表中的记录” 3.把“表头”和“表中的记录”拼装在一起 用DataFrame的操作或SQL语句完成以下数据分析要求,并和用RDD操作的实现进行对比: 每个分数+5分。 总共有多少学生? 总
阅读全文
posted @ 2021-05-19 22:53 ZiKiii
阅读(52)
评论(0)
推荐(0)
编辑
2021年5月13日
07 从RDD创建DataFrame
摘要: 1.pandas df 与 spark df的相互转换 3.1 利用反射机制推断RDD模式 sc创建RDD 转换成Row元素,列名=值 spark.createDataFrame生成df df.show(), df.printSchema() 3.2 使用编程方式定义RDD模式 生成“表头” fie
阅读全文
posted @ 2021-05-13 17:22 ZiKiii
阅读(57)
评论(0)
推荐(0)
编辑
2021年5月7日
06 Spark SQL 及其DataFrame的基本操作
摘要: 一. 1.Spark SQL出现的 原因是什么? spark sql是从shark发展而来。Shark为了实现Hive兼容,在HQL方面重用了Hive中HQL的解析、逻辑执行计划翻译、执行计划优化等逻辑,可以近似认为仅将物理执行计划从MR作业替换成了Spark作业(辅以内存列式存储等各种和Hive关
阅读全文
posted @ 2021-05-07 19:00 ZiKiii
阅读(57)
评论(0)
推荐(0)
编辑
2021年4月16日
05 RDD编程
摘要: 一、词频统计: 读文本文件生成RDD lines 将一行一行的文本分割成单词 words flatmap() 全部转换为小写 lower() 去掉长度小于3的单词 filter() 去掉停用词 1.准备停用词文本: 2.去除停用词: 转换成键值对 map() 统计词频 reduceByKey() 按
阅读全文
posted @ 2021-04-16 20:16 ZiKiii
阅读(56)
评论(0)
推荐(0)
编辑
2021年4月5日
RDD练习 :词频统计
摘要: 一、词频统计: 1.读文本文件生成RDD lines 2.将一行一行的文本分割成单词 words flatmap() 3.全部转换为小写 lower() 4.去掉长度小于3的单词 filter() 5.去掉停用词 6.转换成键值对 map() 7.统计词频 reduceByKey() 二、学生课程分
阅读全文
posted @ 2021-04-05 21:15 ZiKiii
阅读(49)
评论(0)
推荐(0)
编辑
2021年3月31日
04 RDD编程练习
摘要: 一、filter,map,flatmap练习: 1.读文本文件生成RDD lines 2.将一行一行的文本分割成单词 words 3.全部转换为小写 4.去掉长度小于3的单词 5.去掉停用词 1.准备停用词文本: lines = sc.textFile('file:///home/hadoop/st
阅读全文
posted @ 2021-03-31 21:35 ZiKiii
阅读(37)
评论(0)
推荐(0)
编辑
2021年3月27日
Spark RDD编程
摘要: 准备文本文件从文件创建RDD lines=sc.textFile()筛选出含某个单词的行 lines.filter()lambda 参数:条件表达式 截图: 从文件创建RDD lines=sc.textFile() 筛选出含某个单词的行 lines.filter()lambda 参数:条件表达式 2
阅读全文
posted @ 2021-03-27 14:06 ZiKiii
阅读(41)
评论(0)
推荐(0)
编辑
2021年3月12日
01 Spark架构与运行流程
摘要: 1. 阐述Hadoop生态系统中,HDFS, MapReduce, Yarn, Hbase及Spark的相互关系,为什么要引入Yarn和Spark。 答: Hadoop对应于Google三驾马车:HDFS对应于GFS,即分布式文件系统,MapReduce即并行计算框架,HBase对应于BigTabl
阅读全文
posted @ 2021-03-12 15:17 ZiKiii
阅读(52)
评论(0)
推荐(0)
编辑
1
2
下一页
公告