yarn的诞生:hadoop1.x版本JobTracker的作用是资源管理和任务的调度,当存在多个计算框架时,比如说spark,如果两个计算框架都有着自己的资源管理模块,就会存在资源竞争,不便于管理。此时就需要一个公共的资源管理模块,这就产生了YARN.

hadoop2.x上的mapreduce是基于YARN 的,YARN支持多个计算框架,就比如说刚才说的SPARk.

YARN的工作原理图:

Yarn上可以支持多个计算框架(MapReduce,spark)

Yarn上的每一个Node Manager 都与每一个dataNode与之对应

Yarn原理过程:

一个客户端A向resource manager 提交请求,resource manager就会会产生一个application master(相当于mapreduce1.x中的jobTracker中的调度模块),resource manager会在hdfs中获取split的信息(被切成了多少块),然后向resource manager申请有多少个mapTask,然后resource manager 会产生多个Container分布在多个节点上(分布在哪个节点上由resource manager控制)

一个客户端B向resource manager 提交请求,resource manager又会会产生一个application master(相当于mapreduce1.x中的jobTracker中的调度模块),resource manager会在hdfs中获取split的信息(被切成了多少块),然后向resource manager申请有多少个mapTask,然后resource manager 会产生多个Container(默认占用空间1个G)分布在多个节点上(分布在哪个节点上由resource manager控制)

 Resource manager 又会存在单点故障,此时又需要用到ha来实现高可用性。

mapTask 和 reduceTask都是在节点上的container上运行的。

将yarn配置好后,执行hadoop上的mapreduce例子,进行简单的测试。

Hadoop  jar  hadoop-mapreduce-examples-2.6.5.jar wordcount /usr/root/text.txt /data/wc/output

注意:/data/wc/output目录必须是空的,或者不存在的。否则的话,hadoop会报错。

下面是yarn-site.xml的配置:

<configuration>

 

<!-- Site specific YARN configuration properties -->

<!—配置此项,则nodemanager会自动拉取hdfs中的数据,否则无法mapTask无法获取到数据进行计算-->

    <property>

        <name>yarn.nodemanager.aux-services</name>

        <value>mapreduce_shuffle</value>

</property>

<!—resource manager 开启ha开关实现高可用-->

<property>

  <name>yarn.resourcemanager.ha.enabled</name>

  <value>true</value>

</property>

<!—resource manager ha集群服务名-->

<property>

  <name>yarn.resourcemanager.cluster-id</name>

  <value>yarnhacluster</value>

</property>

<!—resource manager ha虚拟到物理的映射-->

<property>

  <name>yarn.resourcemanager.ha.rm-ids</name>

  <value>rm1,rm2</value>

</property>

<property>

  <name>yarn.resourcemanager.hostname.rm1</name>

  <value>node3</value>

</property>

<property>

  <name>yarn.resourcemanager.hostname.rm2</name>

  <value>node4</value>

</property>

<property>

  <name>yarn.resourcemanager.webapp.address.rm1</name>

  <value>node3:8088</value>

</property>

<property>

  <name>yarn.resourcemanager.webapp.address.rm2</name>

  <value>node4:8088</value>

</property>

<!—resource mangager故障转移切换与zookeeper相结合 -->

<property>

  <name>yarn.resourcemanager.zk-address</name>

  <value>node2:2181,node3:2181,node4:2181</value>

</property>

</configuration>

Mapred-site.xml文件中的配置:

<configuration>
    <!—mapreduce 基于yarn来实现离线计算的,基础开关 -->
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
</configuration>

 

转载于:https://www.cnblogs.com/yehuili/p/9946010.html