一个4节点Hadoop集群的配置示例
环境:
操作系统:CentOS 6.5 64bit
Hadoop:Version 1.2.1
Servers:hadoopnamenode,hadoop2ndnamenode,hadoopdatanode1,hadoopdatanode2
注:为方便起见,在这4台server上,我都直接使用root账户进行操作
下载及环境变量设置:
在所有4台server上:
从Apache网站下载hadoop-1.2.1-bin.tar.gz,解压后放置在某个目录下,我放在了/usr/local下,为方便起见,我把目录hadoop-1.2.1改名为hadoop。
修改.bashrc,添加下面的环境变量:
export HADOOP_PREFIX=/usr/local/hadoop
export PATH=$PATH:$HADOOP_PREFIX/bin
配置hosts文件:
在/etc/hosts中添加:
153.65.170.11 hadoopnamenode
153.65.170.45 hadoop2ndnamenode
153.65.171.174 hadoopdatanode1
153.65.171.24 hadoopdatanode2
配置ssh:
在hadoopnamenode上执行:
ssh-keygen//生成公钥、私钥
ssh-copy-id –i ~/.ssh/id_rsa.pub root@hadoop2ndnamenode//将hadoopnamenode的公钥copy到其它三台server上
ssh-copy-id –i ~/.ssh/id_rsa.pub root@hadoopdatanode1
ssh-copy-id –i ~/.ssh/id_rsa.pub root@hadoopdatanode2
这么做的目的是可以不需要密码从hadoopnamenode上ssh到其它三台server上。经过ssh-copy-id后,这个公钥实际上会被添加到其它三台server的~/.ssh/authorized_keys文件中。
例如要从hadoopnamenode登录hadoop2ndnamenode,其流程大概是:hadoop2ndnamenode向hadoopnamenode发送一段随机字符串,hadoopnamenode用自己的私钥加密后,再发回来。hadoop2ndnamenode用事先储存的hadoopnamenode公钥进行解密,如果成功,就证明用户是可信的,直接允许登录shell,不再要求密码。
配置Hadoop:
一般地,我们将使用下面的命令启动hdfs(即name node, secondary name node, data node)及MapReduce:
/usr/local/hadoop/bin/start-dfs.sh
/usr/local/hadoop/bin/start-mapred.sh
start-dfs.sh的流程大概是这样:
- 执行该命令的机器自动成为name node(以及job tracker),
- 启动/usr/local/hadoop/conf /slaves中列出的所有机器并作为data node(以及task tracker),
- 启动/usr/local/hadoop/conf /masters中列出的所有机器并作为secondary name node。
start-mapred.sh的流程类似:
- 执行该命令的机器自动成为job tracker,
- 启动/usr/local/hadoop/conf /slaves中列出的所有机器并作为task tracker
注:conf/masters文件往往给人带来困惑,直观上让人觉得它是为配置name node所用,但是因为(1)的原因,name node是不需要特别配置到conf/masters中,需要配置的只有secondary name node。
根据以上描述,我们可以开始修改hadoopnamenode上的masters文件,删除原内容,添加一行:
hadoop2ndnamenode
修改hadoopnamenode上的slaves文件,删除原内容,添加两行:
hadoopdatanode1
hadoopdatanode2
除此之外,需要在hadoopdatanode1与hadoopdatanode2上作出配置,使得data node知道name node,task tracker知道job tracker。所以分别修改hadoopdatanode1与hadoopdatanode2上的conf/core-site.xml:
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://hadoopnamenode:10001</value>
</property>
</configuration>
及conf/mapred-site.xml:
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>hadoopnamenode:10002</value>
</property>
</configuration>
格式化name node:
在hadoopnamenode上执行:
hadoop namenode -format
启动Hadoop:
首先,在hadoopnamenode上执行下面命令来启动所有name node, secondary name node, data node:
start-dfs.sh
可以使用jps命令在4台server上查看当前运行的java进程,正常情况你会看到:
hadoopnamenode上有进程:NameNode
hadoop2ndnamenode上有进程:SecondaryNameNode
hadoopdatanode1/hadoopdatanode2上有进程:DataNode
其次,在hadoopnamenode上执行下面命令来启动所有job tracker, task tracker:
start-mapred.sh
继续使用jps命令在4台server上查看当前运行的java进程,正常情况你会看到:
hadoopnamenode上有进程:NameNode, JobTracker
hadoop2ndnamenode上有进程:SecondaryNameNode
hadoopdatanode1/hadoopdatanode2上有进程:DataNode, TaskTracker
关闭Hadoop:
在hadoopnamenode上:
stop-mapred.sh
stop-dfs.sh
其它:
Name node管理界面:http://hadoopnamenode:50070/
Job tracker 管理界面:http://hadoopnamenode:50030/
![]() |
关注作者:欢迎扫码关注公众号「后厂村思维导图馆」,获取本人自建的免费ChatGPT跳板地址,长期有效。 原文链接:https://www.cnblogs.com/morvenhuang/p/4193554.html 版权声明:本文版权归作者和博客园共有,欢迎转载,但未经作者同意必须在文章页面给出原文链接,否则保留追究法律责任的权利。 |
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· go语言实现终端里的倒计时
· 如何编写易于单元测试的代码
· 10年+ .NET Coder 心语,封装的思维:从隐藏、稳定开始理解其本质意义
· .NET Core 中如何实现缓存的预热?
· 从 HTTP 原因短语缺失研究 HTTP/2 和 HTTP/3 的设计差异
· 周边上新:园子的第一款马克杯温暖上架
· 分享 3 个 .NET 开源的文件压缩处理库,助力快速实现文件压缩解压功能!
· Ollama——大语言模型本地部署的极速利器
· DeepSeek如何颠覆传统软件测试?测试工程师会被淘汰吗?
· 使用C#创建一个MCP客户端