摘要: 在MapReduce过程中,每一个Job都会被分成若干个task,然后再进行处理。那么Hadoop是怎么将Job分成若干个task,并对其进行跟踪处理的呢?今天我们来看一个*Context类——TaskInputOutputContext。先来看看TaskInputOutputContext的类图:... 阅读全文
posted @ 2014-04-18 19:28 pei~乐悠悠 阅读(879) 评论(0) 推荐(0) 编辑
摘要: 先来看看TaskAttemptContext的类图: Figure1:TaskAttemptContext类图用户向Hadoop提交Job(作业),Job在JobTracker对象的控制下执行。Job不是独立完成的,Job提交后,Hadoop根据集群的规模将Job分解为若干个Task(任务),然后... 阅读全文
posted @ 2014-04-18 11:09 pei~乐悠悠 阅读(1443) 评论(0) 推荐(0) 编辑