在软件中体悟人生 在人生中感悟软件

专注Web项目设计、实现和管理
  博客园  :: 首页  :: 联系 :: 订阅 订阅  :: 管理

【转】Hadoop命令大全

Posted on 2015-03-19 22:42  王景  阅读(248)  评论(0编辑  收藏  举报

Hadoop命令大全

本节比较全面的向大家介绍一下Hadoop命令,欢迎大家一起来学习,希望通过本节的介绍大家能够掌握一些常见Hadoop命令的使用方法。下面是Hadoop命令的详细介绍。

 

1、列出所有HadoopShell支持的命令

$bin/hadoopfs-help

 

2、显示关于某个命令的详细信息

$bin/hadoopfs-helpcommand-name

 

3、用户可使用以下命令在指定路径下查看历史日志汇总。这条命令会显示作业的细节信息,失败和终止的任务细节。

$bin/hadoopjob-historyoutput-dir

 

4、关于作业的更多细节,比如成功的任务,以及对每个任务的所做的尝试次数等可以用下面的命令查看

$bin/hadoopjob-historyalloutput-dir

 

5、格式化一个新的分布式文件系统:

$bin/hadoopnamenode-format

 

6、在分配的NameNode上,运行下面的Hadoop命令启动HDFS:

$bin/start-dfs.sh

bin/start-dfs.sh脚本会参照NameNode上${HADOOP_CONF_DIR}/slaves文件的内容,在所有列出的slave上启动DataNode守护进程。

 

7、在分配的JobTracker上,运行下面的命令启动Map/Reduce:

$bin/start-mapred.sh

bin/start-mapred.sh脚本会参照JobTracker上${HADOOP_CONF_DIR}/slaves文件的内容,在所有列出的slave上启动TaskTracker守护进程。

 

8、在分配的NameNode上,执行下面的Hadoop命令停止HDFS:

$bin/stop-dfs.sh

bin/stop-dfs.sh脚本会参照NameNode上${HADOOP_CONF_DIR}/slaves文件的内容,在所有列出的slave上停止DataNode守护进程。

 

9、在分配的JobTracker上,运行下面的命令停止Map/Reduce:

$bin/stop-mapred.sh

bin/stop-mapred.sh脚本会参照JobTracker上${HADOOP_CONF_DIR}/slaves文件的内容,在所有列出的slave上停止TaskTracker守护进程。

DFSShell

 

10、创建一个名为/foodir的目录

$bin/hadoopdfs-mkdir/foodir

 

11、创建一个名为/fodir的目录

$bin/hadoopdfs-mkdir/fodir

 

12、查看名为/foodir/myfile.txt的文件内容

$bin/hadoopdfs-cat/foodir/myfile.txt

DFSAdmin

 

13、将集群置于安全模式

$bin/hadoopdfsadmin-safemodeenter

 

14、显示Datanode列表

$bin/hadoopdfsadmin-report

 

15、使Datanode节点datanodename退役

$bin/hadoopdfsadmin-decommissiondatanodename

 

16、bin/hadoopdfsadmin-help命令能列出所有当前支持的命令。比如:

*-report:报告HDFS的基本统计信息。有些信息也可以在NameNodeWeb服务首页看到。

*-safemode:虽然通常并不需要,但是管理员的确可以手动让NameNode进入或离开安全模式。

*-finalizeUpgrade:删除上一次升级时制作的集群备份。

 

17、显式地将HDFS置于安全模式

$bin/hadoopdfsadmin-safemode

 

18、在升级之前,管理员需要用(升级终结操作)Hadoop命令删除存在的备份文件

$bin/hadoopdfsadmin-finalizeUpgrade

 

19、能够知道是否需要对一个集群执行升级终结操作。

$dfsadmin-upgradeProgressstatus

 

20、使用-upgrade选项运行新的版本

$bin/start-dfs.sh-upgrade

 

21、如果需要退回到老版本,就必须停止集群并且部署老版本的Hadoop,用回滚选项启动集群

$bin/start-dfs.h-rollback

 

22、下面的新命令或新选项是用于支持配额的。前两个是管理员命令。

*dfsadmin-setquota<N><directory>...<directory>

把每个目录配额设为N。这个命令会在每个目录上尝试,如果N不是一个正的长整型数,目录不存在或是文件名,或者目录超过配额,则会产生错误报告。

*dfsadmin-clrquota<directory>...<director>

为每个目录删除配额。这个命令会在每个目录上尝试,如果目录不存在或者是文件,则会产生错误报告。如果目录原来没有设置配额不会报错。

*fs-count-q<directory>...<directory>

使用-q选项,会报告每个目录设置的配额,以及剩余配额。如果目录没有设置配额,会报告none和inf。

 

23、创建一个hadoop档案文件

$hadooparchive-archiveNameNAME<src>*<dest>

-archiveNameNAME要创建的档案的名字。

src文件系统的路径名,和通常含正则表达的一样。

dest保存档案文件的目标目录。

 

24、递归地拷贝文件或目录

$hadoopdistcp<srcurl><desturl>

srcurl源Url

desturl目标Url。