Hadoop的简单了解与安装
hadoop
一, Hadoop 分布式 简介
Hadoop 是分布式的系统架构,是 Apache 基金会顶级金牌项目
分布式是什么?学会用大数据的思想来看待和解决问题 思 想很重要
1-1 、Hadoop 的思想之源:
来自于 Google 03 年发布 3 大论文, GFS、MapReduce、Bigtable ;Dougcutting 用 Java 实现
1-2 、Hadoop 创始人介绍
Hadoop 作者 Doug cutting,就职 Yahoo 期间开发了 Hadoop项目,目前在 Cloudera 公司从事架构工作
1-3 、Hadoop 发展历程
2003-2004 年,Google 公开了部分 GFS 和 Mapreduce 思想的细节,以此为基础 Doug Cutting 等人用了 2 年业余时间实现了DFS 和 Mapreduce 机制,一个微缩版:Nutch
Hadoop 于 2005 年秋天作为 Lucene 的子项目 Nutch 的一部分正式引入 Apache 基金会。2006 年 3 月份,Map-Reduce 分布式离线计算 和 Nutch Distributed File System (NDFS) nutch 分布式文件系统分别被纳入称为 Hadoop 的项目中。(Hadoop 如今是 Apache 基金会顶级金牌项目)Hadoop 这名字来源于 Doug Cutting 儿子的玩具大象
1-4 、Hadoop 组成:
Hadoop = hdfs(存储) + mapreduce(计算) + yarn(资源管理)
1-4-2、 、统 分布式存储系统 HDFS (Hadoop Distributed File
System )
– 分布式存储系统
– 提供了 高可靠性、高扩展性和高吞吐率的数据存储服务
1-4-2、 、架 分布式计算框架 MapReduce
– 分布式计算框架(计算向数据移动)
– 具有 易于编程、高容错性和高扩展性等优点。
1-4-3、 、架 分布式资源管理框架 YARN (Yet Another Resource Management )
– 负责集群资源的管理和调度
二、 分布式 文件存储系统 HDFS
2 2- -1 1 、S HDFS 是什么?
HDFS 是 Hadoop 分布式文件存储系统
为什么会有分布式的文件存储系统出现?
面对的大量的数据和如何计算的难题大量【pb 级以上】的网页怎么存储问题 (之前是用磁柜存储)
分布式存储系统 HDFS (Hadoop Distributed File System)
主要解决大数据的存储问题。经过多年的发展,HDFS 的应用已经非常成熟非常多,如百度网盘 360 云盘 腾讯微云 阿里云(不仅提供服务器和云存储还提供服务,比一般的强多了)大数据好多技术框架都架构于这个文件存储系统之上的。
hadoo2.x生态系统
2-2 、HDFS 架构图( 重点) :
如图所示有 HDFS 中有哪些模块?
那么接下来我就一一给大家介绍这些功能模块及 HDFS 的原理!
众所周知关系型数据库是按什么储存的?行! 那么 HDFS 呢?
2-3 、HDFS 的功能模块及原理详解( 非常重要)
2-3-1 、HDFS 数据存储单元(block )
--文件被切分成固定大小的数据块 block
• 默认数据块大小为 128MB (hadoop2.x),可自定义配置
• 若文件大小不到 128MB ,则单独存成一个 block
- 一个文件存储方式
按大小被切分成若干个 block ,存储到不同节点上
• 默认情况下每个 block 都有 3 个副本
- Block 大小和副本数通过 Client 端上传文件时设置,文件上传成功后副本数可以变更,Block Size 不可变更
hdfs 存储模型:字节
– 文件线性切割成块(Block):偏移量 offset (byte)
– Block 分散存储在集群节点中
– 单一文件 Block 大小一致,文件与文件可以不一致
– Block 可以设置副本数,副本分散在不同节点中
• 副本数不要超过节点数量
– 文件上传可以设置 Block 大小和副本数
– 已上传的文件 Block 副本数可以调整,大小不变
– 只支持一次写入多次读取,同一时刻只有一个写入者
– 可以 append 追加数据
2-3-2 、NameNode (简称 NN )
2-3 -2 -1 NameNode 主要功能:
• 接受客户端的读/写服务
• 收集 DataNode 汇报的 Block 列表信息
2 - 3- 2- 2 、 基于内存存储 : 不会和磁盘发生交换
• 只存在内存中
• 持久化
2- 3- 2- 3 NameNode 保存 a metadata 信息:
• 文件 owership(归属)和 permissions(权限)
• 文件大小,时间
• (Block 列表:Block 偏移量),位置信息
• Block 保存在哪个 DataNode 信息(由 DataNode 启动时上
报,不保存在磁盘)
2 -3 -2-4 NameNode 持久化
• NameNode 的 metadate 信息在启动后会加载到内存
• metadata 存储到磁盘文件名为”fsimage”
• Block 的位置信息不会保存到 fsimage
• edits 记录对 metadata 的操作日志
fsimage 保存了最新的元数据检查点,类似快照。
- editslog 保存自最新检查点后的元信息变化,从最新检查点后,hadoop 将对每个文件的操作都保存在 edits 中。客户端修改文件时候,先写到 editlog,成功后才更新内存中的
metadata 信息。
Metadata = fsimage + editslog
2-3-4 、DataNode (DN )
• 本地磁盘目录存储数据(Block),文件形式
• 同时存储 Block 的元数据信息文件
• 启动 DN 进程的时候会向 NameNode 汇报 block 信息
• 通过向 NN 发送心跳保持与其联系(3 秒一次),如果 NN 10分钟没有收到 DN 的心跳,则认为其已经 lost,并 copy 其上的 block 到其它 DN
2-3-5 、SecondaryNameNode (SNN )
– 它的主要工作是帮助 NN 合并 edits log 文件,减少 NN 启动时间,它不是 NN 的备份(但可以做备份)。
– SNN 执行合并时间和机制
•A、根据配置文件设置的时间间隔 fs.checkpoint.period 默认 3600 秒。
•B、根据配置文件设置 edits log 大小 fs.checkpoint.size规定 edits 文件的最大值默认是 64MB
2-3-6 、SecondaryNameNode SNN 合并流程
首先是 NN 中的 Fsimage 和 edits 文件通过网络拷贝,到达SNN 服务器中,拷贝的同时,用户的实时在操作数据,那么 NN中就会从新生成一个 edits 来记录用户的操作,而另一边的 SNN将拷贝过来的 edits 和 fsimage 进行合并,合并之后就替换NN 中的 fsimage。之后 NN 根据 fsimage 进行操作(当然每隔一段时间就进行替换合并,循环)。当然新的 edits 与合并之后传输过来的 fsimage 会在下一次时间内又进行合并。
2-3-6 、Block 的副本放置策略
– 第一个副本:放置在上传文件的 DN;如果是集群外提交,则随机挑选一台磁盘不太满,CPU 不太忙的节点。
– 第二个副本:放置在于第一个副本不同的机架的节点上。
– 第三个副本:与第二个副本相同机架的不同节点。
– 更多副本:随机节点
2-3-7 、HDFS 读写流程
2 -3 -7 -1写文件流程
HDFS 写流程
– Client:
• 切分文件 Block
• 按 Block 线性和 NN 获取 DN 列表(副本数)
• 验证 DN 列表后以更小的单位(packet)流式传输数据
– 各节点,两两通信确定可用
• Block 传输结束后:
– DN 向 NN 汇报 Block 信息
– DN 向 Client 汇报完成
– Client 向 NN 汇报完成
• 获取下一个 Block 存放的 DN 列表
• ……………..
• 最终 Client 汇报完成
• NN 会在写流程更新文件状态
2-3 -7 -2 读文件过程
HDFS 读流程
– Client:
• 和 NN 获取一部分 Block 副本位置列表
• 线性和 DN 获取 Block,最终合并为一个文件
• 在 Block 副本列表中按距离择优选取
2- -4 4 、S HDFS 的优缺点(重要)
2-4-1 优点:
– 高容错性
• 数据自动保存多个副本
• 副本丢失后,自动恢复
– 适合批处理
• 移动计算而非数据
• 数据位置暴露给计算框架(Block 偏移量)
– 适合大数据处理
• GB 、TB 、甚至 PB 级数据
• 百万规模以上的文件数量
• 10K+ 节点
– 可构建在廉价机器上
• 通过多副本提高可靠性
• 提供了容错和恢复机制
2-4-2 缺点:
- 低延迟高数据吞吐访问问题
• 比如支持秒级别反应,不支持毫秒级
• 延迟与高吞吐率问题(吞吐量大但有限制于其延迟)
- 小文件存取
• 占用 NameNode 大量内存
• 寻道时间超过读取时间
- 并发写入、文件随机修改
• 一个文件只能有一个写者
• 仅支持 append
三、Hadoop 搭建
3-1、 伪分布式搭建
1、 jdk 安装,配置环境变量
- vi /etc/profile
• export JAVA_HOME=/opt/sxt/jdk1.7.0_75
• PATH=$PATH:$JAVA_HOME/bin
2、 ssh 免密钥(本机)
• ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
• cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
3、 上传 hadoop.tar.gz 到服务器
- 解压部署包 到/opt/sxt 目录下
vi /etc/profile
• export HADOOP_PREFIX=/opt/sxt/hadoop-2.6.5
• PATH=$PATH:$JAVA_HOME/bin:$HADOOP_PREFIX/bin:$HADOOP_PREFIX/sbin
4、 /opt/sxt/hadoop-2.6.5/etc/hadoop 目录
- hadoop-env.sh
JAVA_HOME=/opt/sxt/jdk1.7.0_75
- core-site.xml
<property>
<name>fs.defaultFS</name>
<value>hdfs://node01:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/var/sxt/hadoop/local</value>
</property>
- hdfs-site.xml
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>node01:50090</value>
</property>
- vi slaves(datanode 节点)
node01
5、 格式化 hdfs namenode -format
6、 启动 start-dfs.sh
7、 查看服务进程启动了么? jps
a) SecondaryNameNode
b) NameNode
c) DataNode
d) Jps
8、 访问 node01:50070
• 确保防火墙关闭(service iptables stop)
9、 hdfs dfs -mkdir /user
10、 hdfs dfs -ls /user
11 、 hdfs dfs 命令:
• hdfs dfs - - put fileName[ 本地文件名 ] PATH 【s hdfs 的文
件路劲】
• hdfs dfs -du [-s][-h]URI[URI ...] 显示文件(夹)
大小.
• hdfs dfs - - mkdir[- - p] <paths> 创建
• hdfs dfs - - rm - - r /myhadoop1.0 删除
• hdfs dfs -cp [-f][-p|-p[topax]]URI[URI...]<dest >复制文件(夹),可以覆盖,可以保留原有权限信息
产生 100000 条数据:
for i in `seq 100000`;do echo "hello sxt $i" >> test.txt;done
四、Windows 开发环境整合
1、windows 上部署 hadoop 包
• 部署包
• 源码包
• lib 整合
• 将老师给的bin目录下的文件覆盖到部署目录的bin目
录下
– hadoop.dll 放到 c:/windows/system32 下
2、windows 环境变量配置
– hadoop 的 bin 目录 添加到 path 路径下
– HADOOP_USER_NAME
• root
3、eclipse 插件
解压 eclipse 插件压缩包:eclipse-mars
将以下 jar 包放入 eclipse 的 plugins 文件夹中
hadoop-eclipse-plugin-2.6.0.jar
启动 eclipse:出现界面如下: