Hadoop-2.6.5安装

简介

Hadoop是一个由Apache基金会所开发的分布式系统基础架构。

用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。

Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS。HDFS有高容错性的特点,并且设计用来部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set)的应用程序。HDFS放宽了(relax)POSIX的要求,可以以流的形式访问(streaming access)文件系统中的数据。

Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,则MapReduce为海量的数据提供了计算。

环境说明

角色

主机名

IP

功能

存储分区

Master

controller

192.168.128.166

NameNode|Secondarynamenode|JobTracker

/data

Slave

compute

192.168.128.165

DataNode|TaskTracker

/data

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
Hadoop部署
 
部署Hadoop需要Master与所有Salve主机实现无秘密访问登录,即配置免秘钥登录,相关配置见:http://www.cnblogs.com/Dev0ps/p/8259099.html
 
修改主机名并且加入hosts文件:
 
192.168.128.166   controller
 
192.168.128.165   compute
 
安装java环境:
 
[root@controller ~]# yum install -y java
 
[root@controller jvm]# vim  /etc/profile
 
添加以下java环境
 
    #set java environment
 
    JAVA_HOME=/usr/lib/jvm/jre-1.8.0-openjdk-1.8.0.151-5.b12.el7_4.x86_64
 
    PATH=$PATH:$JAVA_HOME/bin
 
    CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
 
    export JAVA_HOME  CLASSPATH  PATH
 
 [root@controller jvm]# source /etc/profile
 
[root@controller ~]# cd /usr/local/
 
[root@controller local]# wget http://mirrors.shuosc.org/apache/hadoop/common/hadoop-2.6.5/hadoop-2.6.5.tar.gz
 
[root@controller local]# tar xf hadoop-2.6.5.tar.gz
 
[root@controller local]# cd hadoop-2.6.5/etc/hadoop/
 
修改hadoop-env.sh
 
[root@controller hadoop]# vim hadoop-env.sh
 
export    JAVA_HOME=/usr/lib/jvm/jre-1.8.0-openjdk-1.8.0.151-5.b12.el7_4.x86_64
 
修改core-site.xml
 
[root@controller hadoop]# vim core-site.xml
 
<configuration>
 
<!-- 设置提供HDFS服务的主机名和端口号,即NameNode运行的节点 -->
 
<property>
 
<name>fs.default.name</name>
 
<value>hdfs://controller:9000</value>
 
<final>true</final>
 
</property>
 
<!-- 指定hadoop运行时产生文件的存储路径 --> 
 
<property>
 
<name>hadoop.tmp.dir</name>
 
<value>/usr/local/hadoop/tmp</value>
 
<description>A base for other temporary directories</description>
 
</property>
</configuration>
 
修改hdfs-site.xml
 
[root@controller hadoop]# vim hdfs-site.xml
 
<configuration>
 
<property>
 
<name>dfs.name.dir</name>
 
<value>/usr/local/hadoop/name</value>
 
<final>true</final>
 
</property>
 
<property>
 
<name>dfs.data.dir</name>
 
<value>/usr/local/hadoop/data</value>
 
<final>true</final>
 
</property>
 
   <!-- 设置hdfs中文件保存的份数,伪分布式设为1 --> 
 
<property>
 
<name>dfs.replication</name>
 
<value>1</value>
 
<final>true</final>
 
</property>
 
</configuration>
 
  
 
修改mapred-site.xml
 
[root@controller hadoop]# vim mapred-site.xml
 
<configuration>
 
<property>
 
<name>mapred.job.tracker</name>
 
<value>192.168.128.166:9001</value>
 
<final>true</final>
 
</property>
 
</configuration>
 
配置环境变量
 
export HADOOP_INSTALL=/usr/local/hadoop
 
export PATH=$PATH:$HADOOP_INSTALL/bin
 
export HADOOP_COMMON_LIB_NATIVE_DIR=/usr/local/hadoop/lib/native
 
export HADOOP_OPTS=-Djava.library.path=/usr/local/hadoop/lib
 
格式化hdsf
 
hdfs namenode –format
 
启动服务
 
[root@controller hadoop]# /usr/local/hadoop/sbin/start-all.sh
 
访问hadoop的管理界面: 
 
HDFS管理界面:http://xxxx:50070 
 
MR管理界面:http://xxxx:8088 

 

posted @   西门运维  阅读(580)  评论(0编辑  收藏  举报
编辑推荐:
· .NET Core 中如何实现缓存的预热?
· 从 HTTP 原因短语缺失研究 HTTP/2 和 HTTP/3 的设计差异
· AI与.NET技术实操系列:向量存储与相似性搜索在 .NET 中的实现
· 基于Microsoft.Extensions.AI核心库实现RAG应用
· Linux系列:如何用heaptrack跟踪.NET程序的非托管内存泄露
阅读排行:
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· 阿里巴巴 QwQ-32B真的超越了 DeepSeek R-1吗?
· 【译】Visual Studio 中新的强大生产力特性
· 【设计模式】告别冗长if-else语句:使用策略模式优化代码结构
· AI与.NET技术实操系列(六):基于图像分类模型对图像进行分类
点击右上角即可分享
微信分享提示