Hadoop 完全分布式搭建
搭建环境
https://www.cnblogs.com/YuanWeiBlogger/p/11456623.html
修改主机名
-------------------
1./etc/hostname
s129
2./etc/hosts
127.0.0.1 localhost
192.168.248.129 s129
192.168.248.128 s128
192.168.248.127 s127
192.168.248.126 s126
完全分布式
1.克隆3台client(centos6.8)
右键centos-->管理->克隆-> ... -> 完整克隆
2.启动client
3.启用客户机共享文件夹。
4.修改hostname和ip地址文件
[/etc/hostname]
s127
[/etc/sysconfig/network-scripts/ifcfg-ethxxxx]
...
IPADDR=..
5.重启网络服务
$>sudo service network restart
6.修改/etc/resolv.conf文件
nameserver 192.168.231.2
7.重复以上3 ~ 6过程.
准备完全分布式主机的ssh
-------------------------
1.删除所有主机上的/home/yw/.ssh/*
2.在s129主机上生成密钥对
$>ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
3.将s129的公钥文件id_rsa.pub远程复制到126 ~128主机上。
并放置/home/yw/.ssh/authorized_keys
$>scp id_rsa.pub yw@s129:/home/yw/.ssh/authorized_keys
$>scp id_rsa.pub yw@s128:/home/yw/.ssh/authorized_keys
$>scp id_rsa.pub yw@s127:/home/yw/.ssh/authorized_keys
$>scp id_rsa.pub yw@s126:/home/yw/.ssh/authorized_keys
4.配置完全分布式(${hadoop_home}/etc/hadoop/)
修改完全分布式的xml文件
[core-site.xml]
<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://s129/</value>
</property>
</configuration>
[hdfs-site.xml]
<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
</configuration>
[mapred-site.xml]
不变
[yarn-site.xml]
<?xml version="1.0"?>
<configuration>
<property>
<name>yarn.resourcemanager.hostname</name>
<value>s129</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>
[slaves]
s128
s127
s126
[hadoop-env.sh]
...
export JAVA_HOME=/opt/jdk
...
5.分发配置
$>cd /usr/local/hadoop/hadoop-2.7.3/etc
$>scp -r full-hadoop root@s128:/usr/local/hadoop/hadoop-2.7.3/etc/
$>scp -r full-hadoop root@s127:/usr/local/hadoop/hadoop-2.7.3/etc/
$>scp -r full-hadoop root@s126:/usr/local/hadoop/hadoop-2.7.3/etc/
6.删除符号连接 (把原来的伪分布式连接删掉)
$>cd /usr/local/hadoop/hadoop-2.7.3/etc
$>rm -rf hadoop
$>ssh s128 rm -rf /usr/local/hadoop/hadoop-2.7.3/etc/hadoop/
$>ssh s127 rm -rf /usr/local/hadoop/hadoop-2.7.3/etc/hadoop/
$>ssh s126 rm -rf /usr/local/hadoop/hadoop-2.7.3/etc/hadoop/
7.创建符号连接
$>cd /usr/local/hadoop/hadoop-2.7.3/etc
$>ln -s full-hadoop hadoop
$>ssh s126 ln -s /usr/local/hadoop/hadoop-2.7.3/etc/full-hadoop /usr/local/hadoop/hadoop-2.7.3/etc/hadoop
$>ssh s127 ln -s /usr/local/hadoop/hadoop-2.7.3/etc/full-hadoop /usr/local/hadoop/hadoop-2.7.3/etc/hadoop
$>ssh s128 ln -s /usr/local/hadoop/hadoop-2.7.3/etc/full-hadoop /usr/local/hadoop/hadoop-2.7.3/etc/hadoop
8.删除临时目录文件
$>cd /tmp
$>rm -rf hadoop-centos
$>ssh s128 rm -rf /tmp/hadoop-centos
$>ssh s127 rm -rf /tmp/hadoop-centos
$>ssh s126 rm -rf /tmp/hadoop-centos
9.删除hadoop日志
$>cd /usr/local/hadoop/hadoop-2.7.3/logs
$>rm -rf *
$>ssh s128 rm -rf /usr/local/hadoop/hadoop-2.7.3/logs/*
$>ssh s127 rm -rf /usr/local/hadoop/hadoop-2.7.3/logs/*
$>ssh s126 rm -rf /usr/local/hadoop/hadoop-2.7.3/logs/*
10.格式化文件系统
$>hadoop namenode -format
11.启动hadoop进程
$>start-all.sh
完全分布式搭建完成。😄
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· AI与.NET技术实操系列:基于图像分类模型对图像进行分类
· go语言实现终端里的倒计时
· 如何编写易于单元测试的代码
· 10年+ .NET Coder 心语,封装的思维:从隐藏、稳定开始理解其本质意义
· .NET Core 中如何实现缓存的预热?
· 分享一个免费、快速、无限量使用的满血 DeepSeek R1 模型,支持深度思考和联网搜索!
· 基于 Docker 搭建 FRP 内网穿透开源项目(很简单哒)
· 25岁的心里话
· ollama系列01:轻松3步本地部署deepseek,普通电脑可用
· 按钮权限的设计及实现