学习进度笔记(五)
今天完成了实验3的第一部分HDFS的内容。
这部分内容比较简单,但是我一开始权限没给到位,在root用户里做了很久,好多报错,最后也是成功解决。
启动 Hadoop,在 HDFS 中创建用户目录"/user/hadoop":
hadoop fs -mkdir /user/hadoop
在 Linux 系统的本地文件系统的"/home/hadoop"目录下新建一个文本文件test.txt,并上传到HDFS的"/user/hadoop"目录下:
echo "Some content for the test file" > /home/hadoop/test.txt
hadoop fs -put /home/hadoop/test.txt /user/hadoop
把 HDFS 中"/user/hadoop"目录下的 test.txt 文件,下载到 Linux 系统的本地文件系统中的"/home/hadoop/下载"目录下:
hadoop fs -get /user/hadoop/test.txt /home/hadoop/下载
将HDFS中"/user/hadoop"目录下的test.txt文件的内容输出到终端中进行显示:
hadoop fs -cat /user/hadoop/test.txt
在 HDFS 中的"/user/hadoop"目录下,创建子目录input,把 HDFS 中"/user/hadoop"目录下的test.txt文件,复制到"/user/hadoop/input"目录下:
hadoop fs -mkdir /user/hadoop/input
hadoop fs -cp /user/hadoop/test.txt /user/hadoop/input
删除HDFS中"/user/hadoop"目录下的test.txt文件,删除HDFS中"/user/hadoop"目录下的input子目录及其子目录下的所有内容:
hadoop fs -rm /user/hadoop/test.txt
hadoop fs -rm -r /user/hadoop/input
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· Ollama——大语言模型本地部署的极速利器
· 使用C#创建一个MCP客户端
· 分享一个免费、快速、无限量使用的满血 DeepSeek R1 模型,支持深度思考和联网搜索!
· Windows编程----内核对象竟然如此简单?
· ollama系列1:轻松3步本地部署deepseek,普通电脑可用