摘要: mapreduce分为map和reduce两个工作,map负责处理初始数据,处理后产生的新数据再汇聚给reduce处理。 map和reduce类的重写都是一个规则。都是类名<*,*,*,*>(尖括号里面,Java叫做泛型)四个参数,map的前两个参数是从文件处传输过来待处理的key和value值,然 阅读全文
posted @ 2017-06-12 21:57 南亚传奇 阅读(301) 评论(0) 推荐(0) 编辑
摘要: 第一步 进入hadoop安装目录 输入sbin/start-dfs.sh:开启hadoop 第二步 输入jps 如果有以下信息 : 4176 NameNode4274 DataNode4421 SecondaryNameNode4604 Jps 说明成功开启 如果没有的话,就很麻烦,输入以下命令 c 阅读全文
posted @ 2017-06-12 17:37 南亚传奇 阅读(6259) 评论(1) 推荐(0) 编辑