会员
周边
捐助
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
wwxtl
博客园
首页
新随笔
新文章
联系
订阅
管理
2021年6月11日
第十次期末作业
摘要: 期末作业: 一、.选择使用什么数据,有哪些字段,多大数据量。 地震数据 累计死亡人数 不同类型的地震数量 各个省份的地震次数 二、准备分析哪些问题?(8个以上) 1.中国境内每个省份(海域)发生重大地震的次数 2.不同类型地震的数量 3.震级前500的地震 4.震源深度前500的地震 5. 震级与震
阅读全文
posted @ 2021-06-11 14:45 wwxtl
阅读(28)
评论(0)
推荐(0)
编辑
2021年5月30日
09 spark连接mysql数据库
摘要: spark连接mysql数据库 安装启动检查Mysql服务。netstat -tunlp (3306) spark 连接mysql驱动程序。–cp /usr/local/hive/lib/mysql-connector-java-5.1.40-bin.jar /usr/local/spark/jar
阅读全文
posted @ 2021-05-30 11:48 wwxtl
阅读(26)
评论(0)
推荐(0)
编辑
2021年5月20日
08 学生课程分数的Spark SQL分析
摘要: 读学生课程分数文件chapter4-data01.txt,创建DataFrame。 >>> url = "file:///usr/local/spark/mycode/rdd/chapter4-data01.txt" >>> rdd = spark.sparkContext.textFile(url
阅读全文
posted @ 2021-05-20 19:16 wwxtl
阅读(61)
评论(0)
推荐(0)
编辑
2021年5月9日
Spark SQL 及其DataFrame的基本操作
摘要: Spark SQL出现的 原因是什么? Spark SQL是Spark用来处理结构化数据的一个模块,它提供了一个叫作Data Frame的编程抽象结构数据模型(即带有Schema信息的RDD),Spark SQL的前身是 Shark,由于 Shark过于依赖Hive,因此在版本迭代时很难添加新的优化
阅读全文
posted @ 2021-05-09 22:26 wwxtl
阅读(117)
评论(0)
推荐(0)
编辑
2021年4月18日
RDD编程
摘要: 一、词频统计: 读文本文件生成RDD lines 将一行一行的文本分割成单词 words flatmap() 全部转换为小写 lower() 去掉长度小于3的单词 filter() 去掉停用词 1.准备停用词文本: 2.去除停用词: 转换成键值对 map() 统计词频 reduceByKey() 按
阅读全文
posted @ 2021-04-18 13:20 wwxtl
阅读(69)
评论(0)
推荐(0)
编辑
2021年4月4日
RDD练习:词频统计
摘要: 一、词频统计: 1.读文本文件生成RDD lines 2.将一行一行的文本分割成单词 words flatmap() 3.全部转换为小写 4.去掉长度小于3的单词 5.去掉停用词 准备停用词文本 2.去除停用词: 6.转换成键值对 map() 7.统计词频 reduceByKey() 二、学生课程分
阅读全文
posted @ 2021-04-04 11:04 wwxtl
阅读(64)
评论(0)
推荐(0)
编辑
2021年3月31日
RDD编程练习
摘要: 一、filter,map,flatmap练习: 1.读文本文件生成RDD lines 2.将一行一行的文本分割成单词 words 3.全部转换为小写 4.去掉长度小于3的单词 5.去掉停用词 二、groupByKey练习 6.练习一的生成单词键值对 7.对单词进行分组 8.查看分组结果 学生科目成绩
阅读全文
posted @ 2021-03-31 20:47 wwxtl
阅读(27)
评论(0)
推荐(0)
编辑
2021年3月27日
Spark RDD 编程
摘要: 1. 准备文本文件从文件创建RDD lines=sc.textFile()筛选出含某个单词的行 lines.filter()lambda 参数:条件表达式 2. 生成单词的列表从列表创建RDD words=sc.parallelize()筛选出长度大于2 的单词 words.filter() 3.
阅读全文
posted @ 2021-03-27 13:53 wwxtl
阅读(42)
评论(0)
推荐(0)
编辑
2021年3月12日
spark架构与运行流程
摘要: 1. 阐述Hadoop生态系统中,HDFS, MapReduce, Yarn, Hbase及Spark的相互关系,为什么要引入Yarn和Spark。 Hadoop是一个能够对大量数据进行分布式处理的软件框架。具有可靠、高效、可伸缩的特点。 Hadoop的核心是HDFS和MapReduce,hadoo
阅读全文
posted @ 2021-03-12 15:43 wwxtl
阅读(107)
评论(0)
推荐(0)
编辑
2021年1月6日
第六作业
摘要: hadoop使用实例 下载喜欢的电子书或大量文本数据,并保存在本地文本文件中 编写map与reduce函数 本地测试map与reduce 将文本数据上传至HDFS上
阅读全文
posted @ 2021-01-06 17:36 wwxtl
阅读(38)
评论(0)
推荐(0)
编辑
下一页