hdfs的块大小以及hdfs的读写流程

  • hdfs上的文件是以块为单位进行存储的

    大小一般设置为128m,不能太小,也不能太大。

详细情况看以下链接

hdfs块大小设置原因

  • hdfs的写数据流程

(1)客户端向 NameNode 请求上传文件,NameNode 检查目标文件是否已存在,父目录是否存在。

(2)NameNode 返回是否可以上传

(3)客户端请求第一个 Block 上传到哪几个 DataNode 服务器上

(4)NameNode 返回 比如3 个 DataNode 节点,分别为 dn1、dn2、dn3。这些节点由计算最短距离得到

(5)客户端将需要上传的数据封装为一个个的 chunk,当chunk累计大小到达64k时,就将这他们封装为一个packet,一个个的packet组成packet队列,等待上传。

         与此同时,还有一个ACK队列存在,ACK队列不但保存校验信息,还会保存一份packet数据,以供dn写入数据失败重新读取。

(6)客户端请求 dn1 上传数据,dn1 收到请求会继续调用dn2,然后 dn2 调用 dn3,将这个通信管道建立完成。

(7)dn1、dn2、dn3 逐级应答客户端。

(8)客户端开始往 dn1 上传第一个 Block(先从磁盘读取数据放到一个客户端的本地内存缓存,达到64k就封装成一个packet放入packetc队列),以 Packet 为单位,dn1 收到一个 Packet 就会传给 dn2,dn2 传给 dn3;dn1 每传一个 packet

         会放入一个应答队列等待应答。注意客户端将一个文件分割成多个block块存储到hdfs上,这里的dn1传给dn2,dn2传给dn3是在做每个block块的备份,hdfs默认是3份,所以这里举例三个节点

(9)当一个 Block 传输完成之后,客户端再次请求 NameNode 上传第二个 Block 的服务

器。(重复执行 3-7 步)。

  • hdfs读数据流程

(1)客户端 向 NameNode 请求下载文件,NameNode 通过查询元数据,找到文件块所在的 DataNode 地址。

(2)挑选一台 DataNode服务器,优先找最近的节点读取,如 DataNode1, block1。若最近的节点负载过高,则找下个节点读取下个block,如DataNode2, block2。请求读取数据。

(3)DataNode 开始传输数据给客户端(从磁盘里面读取数据输入流,以 Packet 为单位来做校验)。hdfs是以block块来存储的,但是datanode和客户端之间传递数据是以组成每个block块的packect为单位来传输的。

(4)客户端以 Packet 为单位接收,先在本地缓存,然后写入目标文件

 

posted @ 2022-05-21 20:52  习惯了蓝  阅读(301)  评论(0编辑  收藏  举报