Hadoop(liunx操作系统)
Linux环境下HDFS安装(多节点参考以下)
https://blog.csdn.net/xiaohu21/article/details/108028516#t8
宝塔面板安装:
curl -sSO http://download.bt.cn/install/install_panel.sh && bash install_panel.sh
Linux环境下HDFS安装(单节点)
1.安装环境
VMWare15.x
centos7.x
hadoop 3.2.0
2.第一台虚拟机基础配置
2.1 先安装好一台linux虚拟机,并且设置好宿主windows的ip地址,VMWare中虚拟交换机的地址(宿主windows和虚拟交换机的ip地址必须同一网段,并且宿主windows的网关ip需要设置为虚拟交换机的ip地址)。
2.2设置好这台虚拟linux的配置,包括主机名(/etc/hosname)、ip地址/网关/子网掩码/DNS1等信息(/etc/sysconfig/network-scripts/ifcfg-ens33)、host可以后续集群克隆完毕后再设置
2.3安装基本环境,JDK1.8、mysql
# java JDK 环境变量
export JAVA_HOME=/usr/local/jdk
export PATH=$PATH:$JAVA_HOME/bin
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export JRE_HOME=$JAVA_HOME/jre
3.安装Hadoop
3.1 下载压缩包,版本是3.2.1,注意是linux下版本
3.2 在opt下创建安装软件目录,apps(也可在usr下创建安装目录)
3.3使用命令把hadoop的Linux压缩包解压到当前目录 tar -zxf xxxxx。这里的参数不加v,不显示解压进度,解压速度更快。
3.4设置hadoop的环境变量,/etc/profile ,添加一个HADOOP_HOME变量
# hadoop
export HADOOP_HOME=/usr/local/hadoop
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$JAVA_HOME/jre/bin:$PATH
4.修改Hadoop配置信息(在Hadoop安装目录下:etc/hadoop)
- JAVA_HOME的位置, hadoop-env.sh 在文件的第54行 54+shift+G(vi命令)
export JAVA_HOME=/usr/local/jdk
- namenode机器的位置 ,hdfs-site.xml
<!--namenode存放元数据的位置-->
<property>
<name>dfs.namenode.name.dir</name>
<value>file:/usr/local/hadoop/tmp/name</value>
<description>namenode</description>
</property>
<!--datanode存储数据的位置-->
<property>
<name>dfs.datanode.name.dir</name>
<value>file:/usr/local/hadoop/tmp/data</value>
<description>datanode</description>
</property>
<!--主从复制-->
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.permissions.enabled</name>
<value>false</value>
</property>
- 配置默认的文件系统 core-site.xml
<property>
<name>hadoop.tmp.dir</name>
<value>file:/usr/local/hadoop/tmp</value>
<description>Abase for other temporary directories.</description>
</property>
<property>
<name>fs.defaultFS</name>
<value>hdfs://192.168.253.132:8020</value>
</property>
<property>
<name>hadoop.proxyuser.hadoop.hosts</name>
<value>*</value>
</property>
<property>
<name>hadoop.proxyuser.hadoop.groups</name>
<value>*</value>
</property>
添加hadoop账号
adduser hadoop #(添加hadoop用户)
passwd hadoop # (给hadoop用户设置密码)
su hadoop #切换为hadoop用户执行以下操作
- 虚拟机配置免密通信
每台虚拟机按照如下操作,注意都是以hadoop账号操作
- 查看是否已经生成过ssh key,有的话,去自己家目录下删除.ssh目录
- ssh-keygen输入指令后,按下enter键,一路enter
- ssh-copy-id {自己以及其他虚拟机的域名,ip也可},一定给包括自己在内所有虚拟机发送这个指令
- 输入yes,再输入对应虚拟机的密码
- 提示成功后,测试一下ssh 虚拟机域名或者ip,这时候应该是无密码登录过去的,没问题后,注意exit退出,回到自己当前所在虚拟机。
- 初始化namenode
去hadoop安装目录下的bin中,调用以下指令
./hadoop namenode -format
启动
start-dfs.sh
start-all.sh
- 单节点启动HDFS
去到namenode所在机器,去安装目录下的sbin中
- 先启动namenode(顺序不能乱,因为datanode启动后需要去向namenode注册,所以namenode必须先启动)
./hadoop-daemon.sh start namenode 单个启动namenode
- 再启动datanode
./hadoop-daemon.sh start datanode单个启动namenode
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 阿里最新开源QwQ-32B,效果媲美deepseek-r1满血版,部署成本又又又降低了!
· 开源Multi-agent AI智能体框架aevatar.ai,欢迎大家贡献代码
· Manus重磅发布:全球首款通用AI代理技术深度解析与实战指南
· 被坑几百块钱后,我竟然真的恢复了删除的微信聊天记录!
· AI技术革命,工作效率10个最佳AI工具