编程实现以下指定功能,并利用Hadoop提供的Shell命令完成相同任务:
1、在本地Linux文件系统的“/home/hadoop/”目录下创建一个文件txt,里面可以随意输入一些单词.
2、在本地查看文件位置(ls)
3、在本地显示文件内容
cd /usr/local/hadoop touch test.txt cat test.txt
4、使用命令把本地文件系统中的“txt”上传到HDFS中的当前用户目录的input目录下。
./sbin/start-dfs.sh ./bin/hdfs dfs -mkdir -p /user/hadoop ./bin/hdfs dfs -mkdir input ./bin/hdfs dfs -put ./test.txt input
5、查看hdfs中的文件(-ls)
//hdfs中的文件(夹) ./bin/hdfs dfs -ls //hdfs 中input的所有文件(夹) ./bin/hdfs dfs -ls input
6、显示hdfs中该的文件内容
./bin/hdfs dfs -cat input/test.txt
7、删除本地的txt文件并查看目录
./bin/hdfs dfs -rm -ls input/test.txt
8、从hdfs中将txt下载地本地原来的位置。
./bin/hdfs dfs -get input/test.txt ~/test.txt
9、从hdfs中删除txt并查看目录
./bin/hdfs dfs -rm -ls input/cgp.txt
- 向HDFS中上传任意文本文件,如果指定的文件在HDFS中已经存在,由用户指定是追加到原有文件末尾还是覆盖原有的文件;
if $(hdfs dfs -test -e text.txt);
then $(hdfs dfs -appendToFile local.txt text.txt);
else $(hdfs dfs -copyFromLocal -f local.txt text.txt);
fi
- 从HDFS中下载指定文件,如果本地文件与要下载的文件名称相同,则自动对下载的文件重命名;
if $(hdfs dfs -test -e file:///home/hadoop/text.txt);
then $(hdfs dfs -copyToLocal text.txt ./text2.txt);
else $(hdfs dfs -copyToLocal text.txt ./text.txt);
fi
- 将HDFS中指定文件的内容输出到终端中;
hdfs dfs -cat text.txt
- 显示HDFS中指定的文件的读写权限、大小、创建时间、路径等信息;
hdfs dfs -ls -h text.txt
- 给定HDFS中某一个目录,输出该目录下的所有文件的读写权限、大小、创建时间、路径等信息,如果该文件是目录,则递归输出该目录下所有文件相关信息;
hdfs dfs -ls -R -h /user/hadoop
- 提供一个HDFS内的文件的路径,对该文件进行创建和删除操作。如果文件所在目录不存在,则自动创建目录;
创建目录
if $(hdfs dfs -test -d dir1/dir2);
then $(hdfs dfs -touchz dir1/dir2/filename);
else $(hdfs dfs -mkdir -p dir1/dir2 && hdfs dfs -touchz dir1/dir2/filename);
fi
删除
hdfs dfs -rm dir1/dir2/filename
- 提供一个HDFS的目录的路径,对该目录进行创建和删除操作。创建目录时,如果目录文件所在目录不存在则自动创建相应目录;删除目录时,由用户指定当该目录不为空时是否还删除该目录;
/hdfs dfs mkdir -p dir0/dir1 /hdfs dfs rmdir dir0 /hdfs dfs -rm -r dir0
- 向HDFS中指定的文件追加内容,由用户指定内容追加到原有文件的开头或结尾;
/hdfs dfs -appendToFile ~/test.txt input/test.txt
- 删除HDFS中指定的文件;
hdfs dfs -rm text.txt
- 删除HDFS中指定的目录,由用户指定目录中如果存在文件时是否删除目录;
hdfs dfs -rmdir dir
- 在HDFS中,将文件从源路径移动到目的路径。
hdfs dfs -mv text.txt text2.txt