第六周学习总结

这周继续学习Hadoop的相关内容。

1、创建目录
#hdfs dfs -mkidr /test
2、查询目录结构
#hdfs dfs -ls / 子命令 -R递归查看
//查看具体的某个目录:例如#hdfs dfs -ls /test
3、创建文件
#hdfs dfs -touchz /test/data.txt
4、查看文件内容
#hdfs dfs -cat /test/data.txt (-text和-cat效果一样)
5、复制文件
// .表示当前目录,也可以指定具体其它目录
#hdfs dfs -copyToLocal /test/data.txt .

#hdfs dfs -cp /test/data.txt .
6、把本地文件上传到hadoop
//将当前路径下的data.txt文件上传到/text目录下
#hdfs dfs -put data.txt /test
//将本地文件夹上传到hadoop根目录
#hadoop dfs -put E:/hadoop/myfile /
注意:
// -put 可以与-copyFromLocal替换
// -moveFromLocal会移除本地文件
7、把hadoop文件下载到本地
//从HDFS中把文件下载到本地。假设把HDFS中的mydir/f1.txt文件下载到本地E:/hadoop下
#hdfs dfs -get /mydir/f1.txt E:/hadoop/f1.txt
8、删除文件或文件夹
#hdfs dfs -rm -r 文件名/文件夹
9、文件重命名
//把文件a.txt改为b.txt
#hdfs dfs -mv a.txt b.txt
10、将目录下的文件合并到其它目录
//将根目录下所有文件合并到/test下
#hdfs dfs -getmerge / /test
//把HDFS中整个文件夹目录下的文件合并并下载到本地。
#hdfs dfs -getmerge /mydir E:/hadoop/temp
11、统计HDFS基本信息
#hdfs dfsadmin -report
12、查看文件最后1KB内容
#hdfs dfs -tail
13、查看文件(夹)占用空间
#hdfs dfs -du

posted @ 2022-08-06 17:55  今天又双叒叕在敲代码  阅读(16)  评论(0编辑  收藏  举报