摘要:
网盘下载sc.txt文件,分别创建RDD、DataFrame和临时表/视图; 分别用RDD操作、DataFrame操作和spark.sql执行SQL语句实现以下数据分析: 一、DataFrame操作 创建RDD,转换DataFram 1、总共有多少学生? 2.总共开设了多少门课程? 3.每个学生选修 阅读全文
摘要:
1.分析SparkSQL出现的原因,并简述SparkSQL的起源与发展。 1.1出现的原因 hive是shark的前身,shark是sparkSQL的前身,sparkSQL产生的原因是关系数据库已经不能满足各种在大数据时代新增的用户需求。在不断的发展中,用户的需求不断提高,需要执行像机器 学习和图像 阅读全文
摘要:
集合运算练习 union(), intersection(),subtract(), cartesian() 内连接与外连接 join(), leftOuterJoin(), rightOuterJoin(), fullOuterJoin() 多个考勤文件,签到日期汇总,出勤次数统计 三、综合练习: 阅读全文
摘要:
一、词频统计 A. 分步骤实现 准备文件 下载小说或长篇新闻稿 上传到hdfs上 读文件创建RDD 分词 排除大小写lower(),map()标点符号re.split(pattern,str),flatMap(), 清除空白数据 停用词,可网盘下载stopwords.txt,filter(), 筛出 阅读全文
摘要:
一、 RDD创建 1.从本地文件系统中加载数据创建RD 2.从HDFS加载数据创建RDD 启动hdfs 上传文件 查看文件 加载 停止hdfs 3.通过并行集合(列表)创建RDD 输入列表,字符串,numpy生成数组 二、 RDD操作 转换操作 转换操作 filter(func)显式定义函数lamb 阅读全文
摘要:
三.Spark设计与运行原理,基本操作 1.Spark已打造出结构一体化、功能多样化的大数据生态系统,请用图文阐述Spark生态系统的组成及各组件的功能。 1. Spark Core Spark Core是整个BDAS的核心组件,是一种大数据分布式处理框架,不仅实现了MapReduce的算子map函 阅读全文
摘要:
一、Spark安装 1.检查基础环境hadoop,jdk 2.下载spark 3.解压,文件夹重命名、权限 4.配置文件 编辑配置文件,在文件中加上 export SPARK_DIST_CLASSPATH=$(/usr/local/hadoop/bin/hadoop classpath) 保存配置文 阅读全文
摘要:
1.列举Hadoop生态的各个组件及其功能、以及各个组件之间的相互关系,以图呈现并加以文字描述。 (1)HDFS(hadoop分布式文件系统) 是hadoop体系中数据存储管理的基础。他是一个高度容错的系统,能检测和应对硬件故障。 client:切分文件,访问HDFS,与namenode交互,获取文 阅读全文