windos上安装hadoop并将文件上传至HDFS的操作

参考1
参考2

1. 下载并安装hadoop

下载解压 hadoop: https://archive.apache.org/dist/hadoop/common/hadoop-2.7.1/
百度网盘: 安装包和配置文件链接:(https://pan.baidu.com/s/1SyORDDF5hxmm5-dZPuHNhA?pwd=1234)

注意:

我使用的是2.7.1版本,官网的Hadoop不支持Windows系统,需要修改一些配置方便在Windows上运行,hadooponwindows-master.zip 解压后
复制解压开的bin文件和etc文件到hadoop-2.7.1文件中,并替换原有的bin和etc文件。同时记住hadoop安装路径
image

配置环境变量(别敲错啦)
image
image

2. 修改配置文件

下面操作都在这路径下进行:(下载目录\etc\hadoop)

2.1 core-site.xml文件 (下面也一样)

image
添加如下代码:
替换后有代码最开始为:

<configuration>
 </configuration>
<configuration>
     <property>
        <name>fs.default.name</name>
        <value>hdfs://localhost:9000</value>
    </property>
 </configuration>

2.2 hdfs-site.xml文件

image
别着急,添加之前先来创建文件夹
下载目录下
添加tmp文件夹
添加data里面创建namenode,datanode子文件夹
image
image
现在可以添加了:注意下划线


<configuration>
 <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>/D:/home/hadoop/hadoop-2.7.1/data/namenode</value>
    </property>
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>/D:/home/hadoop/hadoop-2.7.1/data/datanode</value>
    </property>
</configuration>

2.3 hadoop-env.cmd文件

image
set JAVA_HOME=%JAVA_HOME% 把%JAVA_HOME%替换成JDK的绝对路径
image

2.4 拷贝hadoop.dll

从D:\home\hadoop\hadoop-2.7.1\bin下拷贝hadoop.dll到 C:\Windows\System32 ,不然在window平台使用MapReduce测试时报错

3. Hadoop系统进行格式化

以管理员身份打开命令提示符
输入hdfs namenode -format,看到如下所示就说明format成功
image

4.启动集群

快捷cmd
image
输入:start-all,启动hadoop集群
image

出现四个弹窗表示启动hadoop集群成功(千万别关掉了)
image
输入jps - 可以查看运行的所有节点
image
要是没有启动namenode和datanode
重新格式化Hadoop文件系统

  1. 停止Hadoop所有进程
    stop-all.sh
  2. 删除HADOOP_HOME目录下的logs和tmp目录(关键步骤),安全起见把新建namenode、datanode也看看有多的文件就删除。
  3. 重新格式化文件系统
    hdfs namenode -format
  4. 启动Hadoop进程
    start-all

我也遇到节点没有完全启动,查看启动的日志大概指导是路径问题,后面才发现配置文件没有替换(替换后就要重新配置文件)、配置namenode和datanode的时候在路径前面一定要有'/'。最终所有节点启动成功。亲测有效。
访问 http://localhost:50070,访问hadoop的web界面
image
在WEB管理页面中,点击顶部右侧的菜单选项“Utilities”,在弹出的子菜单中点击“Browse the file system”,会出现HDFS文件系统操作页面,在这个页面中可以创建、查看、删除目录和文件
访问 http://localhost:8088,访问yarn的web界面,有就表明已经成功
image

5.关闭集群

注意:要想接着操作下面的内容你就不要关闭集群
停止运行的所有节点的命令stop-all
image

6.上传测试

hadoop fs -mkdir hdfs://localhost:9000/user/
hadoop fs -mkdir hdfs://localhost:9000/user/text1
image
菜单选项"Utilities",在弹出的子菜单中点击“Browse the file system”
image
删除文件夹

hadoop fs -rm -r -skipTrash /user/text1
image

hdfs dfs -rm -r /user //此种方式user目录也会删掉

上传文件

hadoop fs -put D:\Datas\datas\r_review_1.csv hdfs://localhost:9000/E_commerce_platform
image
image

浏览目录
image

posted @ 2024-04-04 20:03  停或走  阅读(298)  评论(0编辑  收藏  举报