hadoop day2-内容理解
进程理解
HDFS相关(NN,DN,SSN)
NameNode(NN)
1、接受客户端的读/写服务
因为NameNode知道数据文件与DataNode的对应关系
2、保存文件的时候会保存文件的元数据信息
a. 文件的归属
b. 文件的权限
c. 文件的大小,时间
d. Block信息,但是block的位置信息不会持久化,需要每次开启集群的时候DN向NN汇报。
3、收集Block的位置信息
3.1 系统启动
a. NN关机的时候是不会存储任何的Block与DataNode的映射信息的
b. DN启动的时候会自动将自己节点上存储的Block信息汇报给NN(节点健康状态、是否正常启动、磁盘cpu空间是否足够、block有哪些)
c. NN接收请求之后会重新生成映射关系
File ----> Block
Block---> DN
d. 如果数据块的副本数小于设置数,那么NN会将这个副本拷贝到其他节点
(如果有其中一个datanode挂了,会有其它空闲的datanode来代替,在挂的节点恢复之后就有四个节点,慢慢的会把健康压力大的节点删除,变成三个副本)
3.2 集群运行中
a. NN与DN保持心跳机制(ping-pong机制),三秒钟发送一次
b. 如果客户端需要读取或者上传数据的时候,NN可以知道DN的健康情况
c. 可以让客户端读取存活的DN节点
d. 如果NN与DN三秒没有心跳则认为DN出现异常,此时不会让新的数据写到这个异常的DN中,客户端访问的时候不提供异常DN节点地址
e. 如果超过十分钟没有心跳,那么NN会将当前DN节点存储的数据转移到其他的节点
4、NameNode为了效率,将所有的操作都在内存中进行
a. 执行速度快
b. NameNode不会和磁盘进行任何的数据交换
但是会存在两个问题:
1)数据的持久化
如果有一个客户需要查询信息 原则:就近原则 拓扑结构:不仅物理上近,还有网络传输层面短,连接耗时短,连接面路短
DataNode(DN)
2、数据会存放在硬盘上
a. 1m=1条元数据
b. 1G=1条元数据(把1000个1m信息整合成1G存储)
c. NameNode非常排斥存储小文件(能存,但是不推荐!!面试必问)
一般小文件在存储之前需要进行压缩,合并成大文件等操作
3、汇报
1)启动时
汇报之前会验证Block文件是否被损坏
向NN汇报当前DN上block的信息
2)运行中
向NN保持心跳机制
4、当客户端读写数据的时候,首先会先去NN查询file与block与DN的映射,然后客户端直接与DN建立连接
SecondaryNameNode(SNN)
1、传统的内存持久化方案
1)日志机制
a. 做任何操作之前先记录日志
b. 在数据改变之前先记录对应的日志,当NN停止的时候
c. 当我下次启动的时候,只需要重新按照以前的日志“重做一遍”即可
缺点:
a. log日志文件的大小不可控,随着时间的发展,集群启动的时间会越来越长
b. 有可能日志中存在大量的无效日志
优点:
a. 绝对不会丢失数据
2)拍摄快照
a. 我们可以将内存中的数据写出到硬盘上(序列化)
b. 启动时还可以将硬盘上的数据写回到内存中(反序列化)
缺点:
a. 关机时间过长
b. 如果是异常关机,数据还在内存中,没法写入到硬盘
c. 如果写出的频率过高,导致内存使用效率低
优点:
启动时间较短
2、SNN的解决方案(面试题)
1)解决思路
a. 让日志大小可控(每64M)
b. 快照需要定时保存(每隔1h)
c. 日志+快照
inprogress的后面刚开始是0,它记录的是每次操作的命令,
第五行后面的2是第一行的2,第一张图片inprogress执行3-9,成为了第二张图片的第二行,
第二张图片的第二行和第六行后面的数字生成一个新的快照11,,,每次只保留两个最新的快照
2)解决方案
a. 当我们启动一个集群的时候,会产生4个文件 ..../name/current/
b. 我们每次操作都会记录日志-->edits-inprogress- edits_00000001,随着时间的推移,日志文件会越来越大-当达到阈值的时候(64M或3600秒),会生成新的日志文件,edits_inprogress-000000001 -->edits_0000001,创建新的日志文件 edits_inprogress-0000000016。
如果不理解看下图
1.
2.namenode在xshell不显示正在运行的文件
安全模式
# 对安全模式的理解 # 1.工作流程 a.启动 NameNode,NameNode 加载 fsimage 到内存,对内存数据执行 edits log 日 志中的事务操作。 b.文件系统元数据内存镜像加载完毕,进行 fsimage 和 edits log 日志的合并,并创 建新的 fsimage 文件和一个空的 edits log 日志文件。 c.NameNode 等待 DataNode 上传 block 列表信息,直到副本数满足最小副本条件。 d.当满足了最小副本条件,再过 30 秒,NameNode 就会退出安全模式。最小副本条件指 整个文件系统中有 99.9%的 block 达到了最小副本数(默认值是 1,可设置) # 在 NameNode 安全模式(safemode) 对文件系统元数据进行只读操作 当文件的所有 block 信息具备的情况下,对文件进行只读操作 不允许进行文件修改(写,删除或重命名文件) # 2.注意事项 a.NameNode 不会持久化 block 位置信息;DataNode 保存各自存储的 block 列表信息。 正常操作时,NameNode 在内存中有一个 blocks 位置的映射信息(所有文件的所有文 件块的位置映射信息)。 b.NameNode 在安全模式,NameNode 需要给 DataNode 时间来上传 block 列表信息到 NameNode。如果 NameNode 不等待 DataNode 上传这些信息的话,
则会在 DataNode 之间进行 block 的复制,而这在大多数情况下都是非必须的(因为只需要等待 DataNode 上传就行了),还会造成资源浪费。 c.在安全模式 NameNode 不会要求 DataNode 复制或删除 block。 d.新格式化的 HDFS 不进入安全模式,因为 DataNode 压根就没有 block。 # 4.命令操作 # 通过命令查看 namenode 是否处于安全模式: hdfs dfsadmin -safemode get Safe mode is ON HDFS 的前端 webUI 页面也可以查看 NameNode 是否处于安全模式。 有时候我们希望等待安全模式退出,之后进行文件的读写操作,尤其是在脚本中,此时: `hdfs dfsadmin -safemode wait` # your read or write command goes here 管理员有权在任何时间让 namenode 进入或退出安全模式。进入安全模式: `hdfs dfsadmin -safemode enter` Safe mode is ON 这 样 做 可 以 让 namenode 一 直 处 于 安 全 模 式 , 也 可 以 设 置 `dfs.namenode.safemode.threshold-pct` 为 1 做到这一点。 离开安全模式: `hdfs dfsadmin -safemode leave` Safe mode is OFF
系统中的数据块的位置并不是由 NameNode 维护的,而是以块列表的形式存储在 DataNode 中。
HDFS权限
HDFS对权限的控制:1.只能防止好人做错事。。2.不能防止坏人做坏事
机架感知
第一种模式
第二种模式:
HDFS的读写流程
写流程的宏观角度
1.客户端向HDFS发送写数据请求
hdfs dfs -put students.txt /shujia/
2. Filesystem通过rpc调用namenode的put方法
b. 有:NN会针对这个文件创建一个空的Entry对象,并返回成功状态给DFS
4.客户端要向nn询问第一个Block存放的位置
NN通过机架感知策略 (node1 node 2 node3)
5.需要将客户端和DN节点创建连接
客户端 和 node1 创建连接 socket
node1 和 node2 创建连接 socket
6.客户端按照文件块切分数据,但是按照packet发送数据
默认一个packet大小为64K,Block128M为2048个packet
7.客户端通过pipeline管道开始使用FDSOutputStream对象将数据输出
1. 客户端首先将一个 packet 发送给 node1, 同时给予 node1 一个 ack 状态 2. node1接受数据后会将数据继续传递给 node2, 同时给予 node2 一个 ack 状态 3. node2接受数据后会将数据继续传递给 node3, 同时给予 node3 一个 ack 状态 4. node3将这个 packet 接受完成后,会响应这个 ack 给 node2 为 true 5. node2会响应给 node1 , 同理 node1 响应给客户端
8.客户端接收到成功的状态 , 就认为某个 packet 发送成功了,直到当前块所有的 packet 都发送完成
2. 客户端会将这个消息传递给 NN , NN 确认传输完成
(1). NN会将 block 的信息记录到 Entry, 客户端会继续向 NN 询问第二个块的存储位置 , 依次类推
block1 (node1 node2 node3)
block2 (node1 node3 node6)
....
3. 当所有的 block 传输完成后, NN 在 Entry 中存储所有的 File 与 Block 与 DN 的映射关系关闭
HDFS写数据的微观角度
a.从本地磁盘中取出的文件先放到缓冲区,每个文件要被切分为block,发送时以package发送。
package默认64k,不仅包含了数据,还有校验数据和头部信息,头部信息有offsetBlock,它记录着在整个文件中的偏移量,还有lastPackageBlock记录着最后一个包
data中每个数据对应着一个校验文件
(block中的数据文件聚合成一个打的数据文件,校验文件聚合成一个大的校验文件)
b.把package放进缓冲区(队列)DataQueue,传进node1,node2,node3,当最后一个包传完后,每个ack返回true之后,返回给客户端继续传下一个,。
如果再传的过程中断电的话,package在传的时候会复制一份在确认队列中AckQueue,恢复之后会继续传,如果没有断电则把复制的删除掉
1.客户端首先从自己的硬盘中以流的形式将自己的数据读取到缓存中
2.然后将缓存中的数据以chunk(512B)和checksum(4B)的方式放入到packet(64k)
1. chunk:checksum=128:1 2. checksum:在数据处理和数据通信领域中,用于校验目的的一组数据项的和 3. Packet中的数据分为两类,一类是实际数据包,另一类是 header 包。 4. 一个 Packet 数据包的组成结构(分两类,一类是实际的数据包,另一类是header包。)
一个数据包的组成结构:
参数理解:
3.(默认生成的快,发送的慢)当packet满的时候添加到dataqueue
4.datastreamer开始从dataqueue队列上读取一个packet,通过FDSDataOPS发送到Poepleline
客户端发送一个 Packet 数据包以后开始接收 ack ,会有一个用来接收 ack 的 ResponseProcessor 进
1. 如果某一个 packet 的 ack 为 true, 那么就从 ackqueue 删除掉这个 packet 2. 如果某一个 packet 的 ack 为 false, 将 ackqueue 中所有的 packet 重新挂载到 发送队列 , 重新发送
最终DFS保存的数据格式:
HDFS读数据
1.首先客户端发送请求到 DFS ,申请读取某一个文件
2.DFS 去 NN 查找这个文件的信息 ( 权限 , 文件是否存在 )
4.客户端获取文件第一个 Block 信息 , 返回 DN1 DN2 DN8
5.客户端直接就近原则选择 DN1 对应的数据即可(根据带宽等)
6.依次类推读取其他块的信息,直到最后一个块 , 将 Block 合并成一个文件
7.关闭 FSDataInputStream