1.1.HDFS.

  它是一个分布式文件管理系统,用来存储文件,通过目录树来定位文件;由多个服务器联合起来实现功能,集群中的服务器有各自的角色。

  适用场景:适合一次写入,多次读出的场景,且不支持文件的修改。适合用来做数据的分析,并不适合用来做网盘应用。

  1.1.1NameNode:就是master,它是一个主管。管理者。

    (1)管理HDFS的名称空间;  (2)配置副本策略;

    (3)管理数据块映射信息  (4)处理客户端读写请求

  1.1.2DateNode:就是Slave。NameNode下达命令,DateNode执行实际的操作。

    (1)存储实际的数据块  (2)执行数据块的读写操作

  1.1.3Client:就是客户端。

    (1)文件切分。文件上传HDFS的时候,Client将文件切分成一个一个的Block,然后进行上传;

    (2)与NameNode交互,获取文件的位置信息

    (3)与DataNode交互,读取或者写入数据;

    (4)Client提供一些命令来管理HDFS,比如NameNode格式化;

    (5)Client可以通过一些命令来访问HDFS,比如对HDFS增删改查操作;

  1.1.4SecondaryNameNode:并非NameNode的热备。当NameNode挂掉的时候,它并不能马上替换NameNode并提供服务。

    (1)辅助NameNode,分担其工作量,比如定期合并Fsimage和Edits,并推送给NameNode;

    (2)在紧急情况下,可辅助恢复NameNode。

 

 1 @Test
 2 public void putFileToHDFS() throws IOException, InterruptedException, URISyntaxException {
 3 
 4     // 1 获取文件系统
 5     Configuration configuration = new Configuration();
 6     FileSystem fs = FileSystem.get(new URI("hdfs://hadoop102:9000"), configuration, "jinghang");
 7 
 8     // 2 创建输入流
 9     FileInputStream fis = new FileInputStream(new File("e:/banhua.txt"));
10 
11     // 3 获取输出流
12     FSDataOutputStream fos = fs.create(new Path("/banhua.txt"));
13 
14     // 4 流对拷
15     IOUtils.copyBytes(fis, fos, configuration);
16 
17     // 5 关闭资源
18     IOUtils.closeStream(fos);
19     IOUtils.closeStream(fis);
20     fs.close();
21 }
把本地e盘上的banhua.txt文件上传到HDFS根目录

 

 1 // 文件下载
 2 @Test
 3 public void getFileFromHDFS() throws IOException, InterruptedException, URISyntaxException{
 4 
 5     // 1 获取文件系统
 6     Configuration configuration = new Configuration();
 7     FileSystem fs = FileSystem.get(new URI("hdfs://hadoop102:9000"), configuration, "jinghang");
 8         
 9     // 2 获取输入流
10     FSDataInputStream fis = fs.open(new Path("/banhua.txt"));
11         
12     // 3 获取输出流
13     FileOutputStream fos = new FileOutputStream(new File("e:/banhua.txt"));
14         
15     // 4 流的对拷
16     IOUtils.copyBytes(fis, fos, configuration);
17         
18     // 5 关闭资源
19     IOUtils.closeStream(fos);
20     IOUtils.closeStream(fis);
21     fs.close();
22 }
从HDFS上下载banhua.txt文件到本地e盘上

HDFS写数据流程,如图3-8所示。

 

 

 

1)客户端通过Distributed FileSystem模块NameNode请求上传文件,NameNode检查目标文件是否已存在,父目录是否存在。

2NameNode返回是否可以上传。

3)客户端请求第一个 Block上传到哪几个DataNode服务器上。

4NameNode返回3DataNode节点,分别为dn1dn2dn3

5)客户端通过FSDataOutputStream模块请求dn1上传数据,dn1收到请求会继续调用dn2,然后dn2调用dn3,将这个通信管道建立完成。

6dn1dn2dn3逐级应答客户端。

7)客户端开始往dn1上传第一个Block(先从磁盘读取数据放到一个本地内存缓存),以Packet为单位,dn1收到一个Packet就会传给dn2dn2传给dn3dn1每传一个packet会放入一个应答队列等待应答

8)当一个Block传输完成之后,客户端再次请求NameNode上传第二个Block的服务器。(重复执行3-7步)。

 

 网络拓扑-节点距离计算

 

HDFS写数据的过程中,NameNode选择距离待上传数据最近距离DataNode接收数据。那么这个最近距离怎么计算呢

 

节点距离:两个节点到达最近的共同祖先的距离总和。

 

 

 

  Hadoop2.7.2副本节点选择

 

 

 HDFS读数据流程

 

 

1)客户端通过Distributed FileSystemNameNode请求下载文件,NameNode通过查询元数据,找到文件块所在的DataNode地址。

2)挑选一台DataNode(就近原则,然后随机)服务器,请求读取数据

3DataNode开始传输数据给客户端(从磁盘里面读取数据输入流,以Packet为单位来做校验)。

4)客户端以Packet为单位接收,先在本地缓存,然后写入目标文件。

 

NameNodeSecondaryNameNode(面试开发重点

 

5.1 NN2NN工作机制

 

 

 

1. 第一阶段:NameNode启动

1)第一次启动NameNode格式化后创建FsimageEdits文件。如果不是第一次启动,直接加载编辑日志和镜像文件到内存。

2客户端对元数据进行增删改的请求

3NameNode记录操作日志,更新滚动日志

4NameNode在内存中对数据进行增删改

2. 第二阶段:Secondary NameNode工作

1Secondary NameNode询问NameNode是否需要CheckPoint直接带回NameNode是否检查结果。

2Secondary NameNode请求执行CheckPoint

3NameNode滚动正在写的Edits日志

4)将滚动前的编辑日志和镜像文件拷贝到Secondary NameNode

5Secondary NameNode加载编辑日志和镜像文件到内存,并合并。

6生成新的镜像文件fsimage.chkpoint

7拷贝fsimage.chkpointNameNode

8NameNodefsimage.chkpoint重新命名成fsimage

 

 

 

 CheckPoint时间设置

1)通常情况下,SecondaryNameNode每隔一小时执行一次

[hdfs-default.xml]

<property>

  <name>dfs.namenode.checkpoint.period</name>

  <value>3600</value>

</property>

2)一分钟检查一次操作次数,当操作次数达到1百万时,SecondaryNameNode执行一次。

<property>

  <name>dfs.namenode.checkpoint.txns</name>

  <value>1000000</value>

<description>操作动作次数</description>

</property>

 

<property>

  <name>dfs.namenode.checkpoint.check.period</name>

  <value>60</value>

<description> 1分钟检查一次操作次数</description>

</property >

集群安全模式

 

 

 

  1. 基本语法

 

集群处于安全模式,不能执行重要操作(操作)集群启动完成后,自动退出安全模式。

 

1bin/hdfs dfsadmin -safemode get (功能描述:查看安全模式状态

 

2bin/hdfs dfsadmin -safemode enter   (功能描述:进入安全模式状态

 

3bin/hdfs dfsadmin -safemode leave (功能描述:离开安全模式状态

 

4bin/hdfs dfsadmin -safemode wait (功能描述:等待安全模式状态

 

 DataNode工作机制

 

 

 

1一个数据块在DataNode以文件形式存储在磁盘上,包括两个文件,一个是数据本身,一个是元数据包括数据块的长度,块数据校验和,以及时间戳

2DataNode启动后向NameNode注册,通过后,周期性(1小时NameNode上报所有的块信息。

3心跳是每3一次,心跳返回结果带有NameNode给该DataNode的命令如复制块数据到另一台机器,或删除某个数据块如果超过10分钟没有收到某个DataNode的心跳,则认为该节点不可用。

4集群运行中可以安全加入和退出一些机器

 

数据完整性

1DataNode读取Block的时候,它会计算CheckSum

2如果计算后的CheckSum,与Block创建时值不一样,说明Block已经损坏。

3Client读取其他DataNode上的Block

4DataNode在其文件创建后周期验证CheckSum,如图3-16所示。

 

 

 掉线时限参数设置

 

 退役旧数据节点

  添加白名单

  

添加到白名单的主机节点都允许访问NameNode不在白名单的主机节点,都会退出。

 

配置白名单的具体步骤如下:

 

1)在NameNode/opt/module/hadoop-2.7.2/etc/hadoop目录dfs.hosts文件

 

[jinghang@hadoop102 hadoop]$ pwd

 

/opt/module/hadoop-2.7.2/etc/hadoop

 

[jinghang@hadoop102 hadoop]$ touch dfs.hosts

 

[jinghang@hadoop102 hadoop]$ vi dfs.hosts

 

添加如下主机名称不添加hadoop105

 

hadoop102

 

hadoop103

 

hadoop104

 

2)在NameNodehdfs-site.xml配置文件中增加dfs.hosts属性

 

<property>

 

<name>dfs.hosts</name>

 

<value>/opt/module/hadoop-2.7.2/etc/hadoop/dfs.hosts</value>

 

</property>

 

3)配置文件分发

 

[jinghang@hadoop102 hadoop]$ xsync hdfs-site.xml

 

4)刷新NameNode

 

[jinghang@hadoop102 hadoop-2.7.2]$ hdfs dfsadmin -refreshNodes

 

Refresh nodes successful

 

5)更新ResourceManager节点

 

[jinghang@hadoop102 hadoop-2.7.2]$ yarn rmadmin -refreshNodes

 

17/06/24 14:17:11 INFO client.RMProxy: Connecting to ResourceManager at hadoop103/192.168.1.103:8033

 

6)在web浏览器上查看

 

 

 黑名单退役

 

 

 

 

 

 

 

 

黑名单上面的主机都会被强制退出。

1.NameNode/opt/module/hadoop-2.7.2/etc/hadoop目录dfs.hosts.exclude文件

[jinghang@hadoop102 hadoop]$ pwd

/opt/module/hadoop-2.7.2/etc/hadoop

[jinghang@hadoop102 hadoop]$ touch dfs.hosts.exclude

[jinghang@hadoop102 hadoop]$ vi dfs.hosts.exclude

添加如下主机名称(要退役的节点)

hadoop105

2.在NameNodehdfs-site.xml配置文件中增加dfs.hosts.exclude属性

<property>

<name>dfs.hosts.exclude</name>

      <value>/opt/module/hadoop-2.7.2/etc/hadoop/dfs.hosts.exclude</value>

</property>

3.刷新NameNode、刷新ResourceManager

[jinghang@hadoop102 hadoop-2.7.2]$ hdfs dfsadmin -refreshNodes

Refresh nodes successful

 

[jinghang@hadoop102 hadoop-2.7.2]$ yarn rmadmin -refreshNodes

17/06/24 14:55:56 INFO client.RMProxy: Connecting to ResourceManager at hadoop103/192.168.1.103:8033

4. 检查Web浏览器,退役节点的状态为decommission in progress(退役),

 

 

 Datanode目录配置

 

 

DataNode也可以配置成多个目录,每个目录存储的数据不一样。:数据不是副本

2.具体配置如下

hdfs-site.xml

<property>

        <name>dfs.datanode.data.dir</name>

<value>file:///${hadoop.tmp.dir}/dfs/data1,file:///${hadoop.tmp.dir}/dfs/data2</value>

</property>

小文件存档

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 1 @Test
 2 public void putFileToHDFS() throws IOException, InterruptedException, URISyntaxException {
 3 
 4     // 1 获取文件系统
 5     Configuration configuration = new Configuration();
 6     FileSystem fs = FileSystem.get(new URI("hdfs://hadoop102:9000"), configuration, "jinghang");
 7 
 8     // 2 创建输入流
 9     FileInputStream fis = new FileInputStream(new File("e:/banhua.txt"));
10 
11     // 3 获取输出流
12     FSDataOutputStream fos = fs.create(new Path("/banhua.txt"));
13 
14     // 4 流对拷
15     IOUtils.copyBytes(fis, fos, configuration);
16 
17     // 5 关闭资源
18     IOUtils.closeStream(fos);
19     IOUtils.closeStream(fis)

 1 @Test
 2 public void putFileToHDFS() throws IOException, InterruptedException, URISyntaxException {
 3 
 4     // 1 获取文件系统
 5     Configuration configuration = new Configuration();
 6     FileSystem fs = FileSystem.get(new URI("hdfs://hadoop102:9000"), configuration, "jinghang");
 7 
 8     // 2 创建输入流
 9     FileInputStream fis = new FileInputStream(new File("e:/banhua.txt"));
10 
11     // 3 获取输出流
12     FSDataOutputStream fos = fs.create(new Path("/banhua.txt"));
13 
14     // 4 流对拷
15     IOUtils.copyBytes(fis, fos, configuration);
16 
17     // 5 关闭资源
18     IOUtils.closeStream(fos);
19     IOUtils.closeStream(fi