导航

Hadoop之HDFS优缺点、设计原理、框架

Posted on 2019-07-18 16:49  两张10元钱  阅读(731)  评论(0编辑  收藏  举报

如需大数据开发整套视频(hadoop\hive\hbase\flume\sqoop\kafka\zookeeper\presto\spark):请联系QQ:1974983704 

Hadoop的前世今生网上有太多的文章介绍,这儿就不啰嗦了,直接介绍Hadoop的4大主要构成及HDFS的原理、特性

 

Hadoop运行模式

1.本地模式:一个节点,不会启动任何服务

2.伪分布式模式:一个节点,所有服务均运行在该节点上

3.分布式模式:多个节点

 

1、Hadoop构成:HDFS(分布式存储系统)

  HDFS特性:

    1.良好的扩展性

    2.高容错性(多备份性,保持数据不丢失

    3.适合PB级以上海量数据的存储

  基本原理:

    1.将文件切分成等大的数据,存储到多台机器上

    2.将数据切分、容错、负载均衡等功能透明化

    3.可将HDFS看成一个容量巨大、具有高容错性的磁盘

2、Hadoop构成:YARN(资源管理系统)

  Yarn是什么:

    1.负责集群的资源管理和调度

    2.使多种计算框架可以运行在一个集群中

  Yarn特点:

    1.良好的扩展性、高可用性(任何一个组件出现问题都不影响集群运行)

    2.对多种类型的应用程序进行统一管理和调度

    3.自带了多种用户调度器、适合共享集群环境

3.Hadoop构成:MapReduce(分布式计算框架)

  源于GoogleMapReduce论文

  MapReduce特点:

    1.良好的扩展性(加的机器越多计算越快)

    2.高容错性

    3.适合PB级以上海量数据的离线处理

  如何执行:

    分为MapReduce两个阶段,先经过Map阶段很多任务并行处理,再经过Reduce阶段合并,先拆分再合并,分而治之

4、Hadoop构成:Hive(基于MR的数据仓库)

  1.构建在Hadoop之上的数据仓库,数据计算使用MapReduce,存储使用HDFS

  2.Hive定义了一种类SQL查询语言--HQL,类似sql但不完全相同(大部分相同)

  3.通常用于进行离线数据处理(采用MapReduce

  4.可认为是一个HQL-MR的语言翻译器

 

HDFS原理、特性与基本架构

 

Hadoop Distributed File System(HDFS)

  • 易于扩展的分布式文件系统
  • 运行在大量普通廉价机器上,提供容错机制
  • 为大量用户提供性能不错的文件存取服务 

HDFS优点

  1.高容错性:

    数据自动保存多个副本(默认为3份)

    副本丢失后,自动恢复

  2.适合批处理

    移动计算而非数据

    数据位置暴漏给计算框架

  3.适合大数据数量

    TBPB级别数据

    百万规模以上的文件数量

  4.流式文件访问

    一次性写入,多次读取

    保证数据一致性

  5.可构建在廉价的机器上

    通过多副本提高可靠性

    提供了容错和恢复机制

HDFS缺点

  1.小文件存储

    小文件占用NameNode大量内存

    寻道时间超过读取时间

  2.并发写入、文件随机修改

    一个文件只能有一个写者(不能支持多线程写入)

    仅支持append(追加),不支持修改(如果修改会生成新的文件,删除旧文件)

  3.低延迟数据访问

    比如毫秒级(用MapReduce计算达不到毫秒级)

    低延迟与高吞吐率

 

HDFS基本框架与原理

1、HDFS设计思想

   HDFS是将一个文件分割成多个128Mblock数据块(当文件小于128M的时候,存储block为文件大小,并非128M),按流式分发到多个节点,有个元数据存储block的顺序及分发到的节点

 

 

2.HDFS架构

主从架构(Master-Slave

 

  • 主服务为namenode,从服务为datanode,主服务Active namenode容易存在单点故障,所以一般需要一个Standby namenode(在Active namendoe出现故障时即使恢复)
  • namenodedatanode直接的连接是通过心跳机制”,datanode长时间未向namenode报告状态,视为该datanode故障
  • Active Namenode:主Master只有一个,管理HDFS的名称空间、管理数据库block映射信息、配置副本策略、处理客户端读写请求
  • Standby NamenodeNameNode的热备、定期合并fsimagefsedits,推送给Namenode、当Active Namenode出现故障时,快速切换为新的Active Namenode
  • DatanodeSlave(有多个)、存储实际的数据块、执行数据块读写
  • Client:文件切分、与NameNode交互,获取文件位置信息、与DataNode交互读写数据、管理HDFS、访问HDFS

 

3、HDFS内部机制-写流程

  比如将1个block写入到datanode1、datanode2、datanode3,流式过程为:先将block发送到datanode1上,等datanode1写完该block,再由datanode1将block写到datanode2上,datanode2写入到datanode3

 

4、HDFS数据块(block)

1.文件被切分成固定大小的数据库

  默认为128M,可配置

  若文件大小不到128M,则单独存成一个block

2.为何数据块(128M如此之大

  数据传输时间超过寻道时间(高吞吐率)

3.一个文件存储方式

  按大小切分成若干个block,存在不同节点上

  默认一个block3个副本