每日总结

实验 3 Spark Hadoop 的安装

(版本号:2018 7 19 日版本)

(题目)

主讲教师:林子雨

厦门大学数据库实验室

二零一八年七月目录

目录

一、实验目的...................................................................................................................................1

二、实验平台...................................................................................................................................1

三、实验内容和要求.......................................................................................................................1

1.安装 Hadoop Spark........................................................................................................1

2.HDFS 常用操作 .................................................................................................................1

3. Spark 读取文件系统的数据 ................................................................................................2

四、实验报告...................................................................................................................................2

附录 1:任课教师介绍......................................................................................................................3

附录 2:课程教材介绍....................................................................................................................3

附录 3:高校大数据课程公共服务平台介绍................................................................................4

主讲教师:林子雨 http://www.cs.xmu.edu.cn/linziyu 1 页厦门大学林子雨,赖永炫,陶继平 编著《Spark 编程基础(Scala 版)》 教材配套机房上机实验指南

实验 3 Spark Hadoop 的安装

主讲教师:林子雨 http://www.cs.xmu.edu.cn/linziyu 1

厦门大学林子雨,赖永炫,陶继平 编著

《Spark 编程基础(Scala 版)》

4 Spark 环境搭建和使用方法

教材配套机房上机实验指南

实验 3 Spark Hadoop 的安装

(题目)

主讲教师:林子雨

E-mail: ziyulin@xmu.edu.cn 个人主页:http://www.cs.xmu.edu.cn/linziyu

一、实验目的

(1)掌握在 Linux 虚拟机中安装 Hadoop Spark 的方法;

(2)熟悉 HDFS 的基本使用方法;

(3)掌握使用 Spark 访问本地文件和 HDFS 文件的方法。

二、实验平台

操作系统:Ubuntu16.04

Spark 版本:2.1.0

Hadoop 版本:2.7.1

三、实验内容和要求

1.安装 Hadoop Spark

进入 Linux 系统,参照本教程官网“实验指南”栏目的“Hadoop 的安装和使用”,完

Hadoop 伪分布式模式的安装。完成 Hadoop 的安装以后,再安装 Spark(Local 模式)。

2HDFS 常用操作

使用 hadoop 用户名登录进入 Linux 系统,启动 Hadoop,参照相关 Hadoop 书籍或网络

资料,或者也可以参考本教程官网的“实验指南”栏目的“HDFS 操作常用 Shell 命令”,厦门大学林子雨,赖永炫,陶继平 编著《Spark 编程基础(Scala 版)》 教材配套机房上机实验指南

实验 3 Spark Hadoop 的安装

主讲教师:林子雨 http://www.cs.xmu.edu.cn/linziyu 2

使用 Hadoop 提供的 Shell 命令完成如下操作:

(1 启动 Hadoop,在 HDFS 中创建用户目录/user/hadoop”;

(2 Linux 系统的本地文件系统的/home/hadoop”目录下新建一个文本文件

test.txt,并在该文件中随便输入一些内容,然后上传到 HDFS /user/hadoop”

目录下;

(3 HDFS /user/hadoop”目录下的 test.txt 文件,下载到 Linux 系统的本地文

件系统中的/home/hadoop/下载”目录下;

(4 HDFS/user/hadoop”目录下的test.txt文件的内容输出到终端中进行显示;

(5 HDFS 中的/user/hadoop”目录下,创建子目录 input,把 HDFS

“/user/hadoop”目录下的 test.txt 文件,复制到/user/hadoop/input”目录下;

(6 删除HDFS/user/hadoop”目录下的test.txt文件,删除HDFS/user/hadoop”

目录下的 input 子目录及其子目录下的所有内容。

3. Spark 读取文件系统的数据

(1)在 spark-shell 中读取 Linux 系统本地文件/home/hadoop/test.txt”,然后统计出文

件的行数;

(2)在 spark-shell 中读取 HDFS 系统文件/user/hadoop/test.txt”(如果该文件不存在,

请先创建),然后,统计出文件的行数;

(3)编写独立应用程序,读取 HDFS 系统文件/user/hadoop/test.txt”(如果该文件不存在,

请先创建),然后,统计出文件的行数;通过 sbt 工具将整个应用程序编译打包成 JAR 包,

并将生成的 JAR 包通过 spark-submit 提交到 Spark 中运行命令。

四、实验报告

《Spark 编程基础》实验报告

题目:

姓名:

日期:

实验环境:

实验内容与完成情况:

 

1)在 spark-shell 中读取 Linux 系统本地文件/home/hadoop/test.txt”,然后统计出文

件的行数;

(2)在 spark-shell 中读取 HDFS 系统文件/user/hadoop/test.txt”(如果该文件不存在,

请先创建),然后,统计出文件的行数;

(3)编写独立应用程序,读取 HDFS 系统文件/user/hadoop/test.txt”(如果该文件不存在,

请先创建),然后,统计出文件的行数;通过 sbt 工具将整个应用程序编译打包成 JAR 包,

并将生成的 JAR 包通过 spark-submit 提交到 Spark 中运行命令。

出现的问题:

解决方案(列出遇到的问题和解决办法,列出没有解决的问题):厦门大学林子雨,赖永炫,陶继平 编著《Spark 编程基础(Scala 版)》 教材配套机房上机实验指南

实验 3 Spark Hadoop 的安装

主讲教师:林子雨 http://www.cs.xmu.edu.cn/linziyu 3

 

posted @ 2024-02-03 19:58  秃头的小白  阅读(14)  评论(0编辑  收藏  举报