摘要: 1、对于datanode可以在master中配置,然后在maste启动的时候,一并去启动这些节点 。对于死掉的节点,也可以通过以下命令启动 。重启挂掉的节点进入到 挂掉的机器bin/hadoop-daemon.sh start datanode //启动数据节点bin/hadoop-daemon.sh start tasktracker //启动任务管理器此时再在master上使用./hadoop dfsadmin -report 是就会发现这些节点已经启动起来 。2、对于新添加datanode的话:只需配置相应的主机IP,然后在在本机上启动datanode和tasktracker ,便可以将 阅读全文
posted @ 2011-03-04 14:06 xiao晓 阅读(4089) 评论(1) 推荐(0) 编辑
摘要: 环境以及配置:三台机器,两台作为datanode ,一台机器启动namenode 、JobTracker 。基本的WordCounter 程序,打包成jar包,将输入文件上传到HDFS上 ,然后命令:./hadoop jar /home/dev/hadoop/Counter.jar hadoopApp.WordCount /data/input/ /data/output/ 注意:后面的两个路径必须是HDFS上的路径,不能是本地路径 ,jar包为普通jar包且不需要上传到服务器 。 阅读全文
posted @ 2011-03-04 13:44 xiao晓 阅读(1127) 评论(0) 推荐(0) 编辑