Hadoop(liunx操作系统)

Linux环境下HDFS安装(多节点参考以下)

https://blog.csdn.net/xiaohu21/article/details/108028516#t8

宝塔面板安装:

curl -sSO http://download.bt.cn/install/install_panel.sh && bash install_panel.sh

Linux环境下HDFS安装(单节点)

1.安装环境

VMWare15.x
centos7.x
hadoop 3.2.0

2.第一台虚拟机基础配置

2.1 先安装好一台linux虚拟机,并且设置好宿主windows的ip地址,VMWare中虚拟交换机的地址(宿主windows和虚拟交换机的ip地址必须同一网段,并且宿主windows的网关ip需要设置为虚拟交换机的ip地址)。
2.2设置好这台虚拟linux的配置,包括主机名(/etc/hosname)、ip地址/网关/子网掩码/DNS1等信息(/etc/sysconfig/network-scripts/ifcfg-ens33)、host可以后续集群克隆完毕后再设置
2.3安装基本环境,JDK1.8、mysql

    # java JDK 环境变量
    export JAVA_HOME=/usr/local/jdk
    export PATH=$PATH:$JAVA_HOME/bin
    export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
    export JRE_HOME=$JAVA_HOME/jre

3.安装Hadoop

3.1 下载压缩包,版本是3.2.1,注意是linux下版本
3.2 在opt下创建安装软件目录,apps(也可在usr下创建安装目录)
3.3使用命令把hadoop的Linux压缩包解压到当前目录 tar -zxf xxxxx。这里的参数不加v,不显示解压进度,解压速度更快。
3.4设置hadoop的环境变量,/etc/profile ,添加一个HADOOP_HOME变量

    # hadoop 
    export HADOOP_HOME=/usr/local/hadoop
    export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$JAVA_HOME/jre/bin:$PATH

4.修改Hadoop配置信息(在Hadoop安装目录下:etc/hadoop)

  1. JAVA_HOME的位置, hadoop-env.sh 在文件的第54行 54+shift+G(vi命令)
export JAVA_HOME=/usr/local/jdk
  1. namenode机器的位置 ,hdfs-site.xml
 <!--namenode存放元数据的位置-->
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>file:/usr/local/hadoop/tmp/name</value>
        <description>namenode</description>
    </property>
    <!--datanode存储数据的位置-->
    <property>
        <name>dfs.datanode.name.dir</name>
        <value>file:/usr/local/hadoop/tmp/data</value>
        <description>datanode</description>
    </property>
    <!--主从复制-->
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    <property>
        <name>dfs.permissions.enabled</name>
        <value>false</value>
    </property>
  1. 配置默认的文件系统 core-site.xml
    <property>
         <name>hadoop.tmp.dir</name>
         <value>file:/usr/local/hadoop/tmp</value>
         <description>Abase for other temporary directories.</description>
    </property>
     <property>
        <name>fs.defaultFS</name>
        <value>hdfs://192.168.253.132:8020</value>
     </property>
     
     <property>
        <name>hadoop.proxyuser.hadoop.hosts</name>
        <value>*</value>
    </property>
    <property>
        <name>hadoop.proxyuser.hadoop.groups</name>
        <value>*</value>
    </property>

添加hadoop账号

adduser hadoop #(添加hadoop用户)
passwd hadoop # (给hadoop用户设置密码)
su hadoop #切换为hadoop用户执行以下操作
  1. 虚拟机配置免密通信
    每台虚拟机按照如下操作,注意都是以hadoop账号操作
  • 查看是否已经生成过ssh key,有的话,去自己家目录下删除.ssh目录
  • ssh-keygen输入指令后,按下enter键,一路enter
  • ssh-copy-id {自己以及其他虚拟机的域名,ip也可},一定给包括自己在内所有虚拟机发送这个指令
  • 输入yes,再输入对应虚拟机的密码
  • 提示成功后,测试一下ssh 虚拟机域名或者ip,这时候应该是无密码登录过去的,没问题后,注意exit退出,回到自己当前所在虚拟机。
  1. 初始化namenode
    去hadoop安装目录下的bin中,调用以下指令
./hadoop namenode -format

启动

start-dfs.sh
start-all.sh
  1. 单节点启动HDFS
    去到namenode所在机器,去安装目录下的sbin中
  • 先启动namenode(顺序不能乱,因为datanode启动后需要去向namenode注册,所以namenode必须先启动)
./hadoop-daemon.sh start namenode 单个启动namenode
  • 再启动datanode
./hadoop-daemon.sh start datanode单个启动namenode
posted @   小飞的~  阅读(249)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 阿里最新开源QwQ-32B,效果媲美deepseek-r1满血版,部署成本又又又降低了!
· 开源Multi-agent AI智能体框架aevatar.ai,欢迎大家贡献代码
· Manus重磅发布:全球首款通用AI代理技术深度解析与实战指南
· 被坑几百块钱后,我竟然真的恢复了删除的微信聊天记录!
· AI技术革命,工作效率10个最佳AI工具
点击右上角即可分享
微信分享提示