hadoop原理分析

hadoop原理分析:强烈推荐阅读:https://www.saoniuhuo.com/article/detail-1124.html

hadoop集群

 

 

 

如上图所示,HDFS也是按照Master和Slave的结构。分NameNode、SecondaryNameNode、DataNode这几个角色。

1、NameNode:是Master节点,是大领导。管理数据块映射;处理客户端的读写请求;配置副本策略;管理HDFS的名称空间;

    nameNode概述
        (1):nameNode是hdfs的核心.
        (2):nameNode也称为Master
        (3):nameNode存储hdfs的数据,文件系统中所有的文件目录树,并跟踪整个集群中的文件
        (4):nameNode不存储实际数据或数据集.数据本身数据存储在dataNode中.
        (5):nameNode知道Hdfs中任何给定文件的块列表及其位置.使用此信息nameNode知道如何从块中构建文件
        (6):nameNode并不持久化存储每个文件中各个块所在的dataNode的位置信息,这些信息会在系统启动时从在数据节点重建.
        (7):nameNode对于hdfs很重要,当nameNode关闭时,hdfs/hadoop集群无法访问.
        (8):nameNode是hadoop集群中的单点故障
        (9):nameNode所在机器通常会配置有大量内存(RAM).

2、SecondaryNameNode:是一个小弟,分担大哥namenode的工作量;是NameNode的冷备份;合并fsimage和fsedits然后再发给namenode。

  SecondaryNameNode负责定时默认1小时,从namenode上,获取fsimage和edits来进行合并,然后再发送给namenode。减少namenode的工作量。

 

  fsimage:元数据镜像文件(文件系统的目录树。)

  edits:元数据的操作日志(针对文件系统做的修改操作记录)

  namenode内存中存储的是=fsimage+edits。

 

3、DataNode:Slave节点,奴隶,干活的。负责存储client发来的数据块block;执行数据块的读写操作。

    dataNode概述
        (1):dataNode负责将数据存储在Hdfs中
        (2):dataNode也称为slave.
        (3):nameNode和dataNode会保持不断通信
        (4):dataNode启动时,他将自己发布到nameNode并汇报自己负责持有的块列表
        (5):当某个nameNode关闭时,他不会影响数据或者集群的可用性.namnode将安排由其他DataNode管理的块副本复制
        (6):DataNode所在机器通常配置有大量的硬盘空间.因为实际数据存储在dataNode中.
        (7):dataNode会定期(dfs.heartbeat.interval配置项配置,默认是3秒)向nameNode发送心跳.如果nameNode长时间没有接收到dataNode发送的心跳,nameNode就会认为该DataNode失效.
        (8):block汇报时间间隔取参数 dfs.blockreport.intersec,参数未配置默认为6小时

 

4、热备份:b是a的热备份,如果a坏掉。那么b马上运行代替a的工作。

5、冷备份:b是a的冷备份,如果a坏掉。那么b不能马上代替a工作。但是b上存储a的一些信息,减少a坏掉之后的损失。

6、HDFS(Hadoop Distributed File System )Hadoop分布式文件系统。是根据google发表的论文翻版的。论文为GFS(Google File System)Google 文件系统(中文英文)。

HDFS有很多特点

    ① 保存多个副本,且提供容错机制,副本丢失或宕机自动恢复。默认存3份。

    ② 运行在廉价的机器上。

    ③ 适合大数据的处理。多大?多小?HDFS默认会将文件分割成block,64M为1个block。然后将block按键值对存储在HDFS上,并将键值对的映射存到内存中。如果小文件太多,那内存的负担会很重
    hdfs读取文件流程
        (1):Client向nameNode发起rpc请求,来确定请求文件block所在的位置;
        (2):NameNode会视情况返回文件的部分或者全部block列表,对于每个block,nameNode都会返回含有该block副本的dataNode地址
        (3):这些返回的DN地址,会按照集群拓扑结构得出dataNode与客户端的距离,然后进行排序,排序两个规测,网络拓扑结构中距离client近的排靠前;心跳机制中超时汇报的DN状态为STALE,这样的排靠后;
        (4):client选取排序靠前的dataNode来读取block,如果客户端本身就是dataNode,那么将从本地直接获取数据.
        (5):底层上本质是建立socket stream (FSDataInputStream),重复的调用父类的dataInputStream的read方法,直到这个快上得数据读取完毕;
        (6):当读完列表的block后,若文件读取还没有结束,客户端会继续向nameNode获取下一批block列表;
        (7):读取完一个block都会进行checksum验证,如果读取dataNode时出现错误,客户端会通知nameNode,然后在从下一个拥有该block副本的开始
    hdsf上传文件

 

详细原理见
https://www.saoniuhuo.com/article/detail-1124.html

https://www.cnblogs.com/liuwei6/p/6680188.html

https://www.cnblogs.com/laov/p/3434917.html

hdfs原理生动介绍:https://bbs.huaweicloud.com/blogs/218062

posted @ 2022-02-23 17:55  linhaifeng  阅读(252)  评论(0编辑  收藏  举报