Hadoop-2.6.5安装
简介
Hadoop是一个由Apache基金会所开发的分布式系统基础架构。
用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。
Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS。HDFS有高容错性的特点,并且设计用来部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set)的应用程序。HDFS放宽了(relax)POSIX的要求,可以以流的形式访问(streaming access)文件系统中的数据。
Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,则MapReduce为海量的数据提供了计算。
环境说明
角色 |
主机名 |
IP |
功能 |
存储分区 |
Master |
controller |
192.168.128.166 |
NameNode|Secondarynamenode|JobTracker |
/data |
Slave |
compute |
192.168.128.165 |
DataNode|TaskTracker |
/data |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 | Hadoop部署 部署Hadoop需要Master与所有Salve主机实现无秘密访问登录,即配置免秘钥登录,相关配置见:http://www.cnblogs.com/Dev 0 ps/p/ 8259099 .html 修改主机名并且加入hosts文件: 192.168 . 128.166 controller 192.168 . 128.165 compute 安装java环境: [root@controller ~]# yum install -y java [root@controller jvm]# vim /etc/profile 添加以下java环境 #set java environment JAVA_HOME=/usr/lib/jvm/jre -1.8 . 0 -openjdk -1.8 . 0.151 -5 .b 12 .el 7 _ 4 .x 86 _ 64 PATH=$PATH:$JAVA_HOME/bin CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar export JAVA_HOME CLASSPATH PATH [root@controller jvm]# source /etc/profile [root@controller ~]# cd /usr/ local / [root@controller local ]# wget http://mirrors.shuosc.org/apache/hadoop/common/hadoop -2.6 . 5 /hadoop -2.6 . 5 .tar.gz [root@controller local ]# tar xf hadoop -2.6 . 5 .tar.gz [root@controller local ]# cd hadoop -2.6 . 5 /etc/hadoop/ 修改hadoop-env.sh [root@controller hadoop]# vim hadoop-env.sh export JAVA_HOME=/usr/lib/jvm/jre -1.8 . 0 -openjdk -1.8 . 0.151 -5 .b 12 .el 7 _ 4 .x 86 _ 64 修改core-site.xml [root@controller hadoop]# vim core-site.xml <configuration> <!-- 设置提供HDFS服务的主机名和端口号,即NameNode运行的节点 --> <property> <name>fs. default .name</name> <value>hdfs://controller: 9000 </value> <final>true</final> </property> <!-- 指定hadoop运行时产生文件的存储路径 --> <property> <name>hadoop.tmp.dir</name> <value>/usr/ local /hadoop/tmp</value> <description>A base for other temporary directories</description> </property> </configuration> 修改hdfs-site.xml [root@controller hadoop]# vim hdfs-site.xml <configuration> <property> <name>dfs.name.dir</name> <value>/usr/ local /hadoop/name</value> <final>true</final> </property> <property> <name>dfs.data.dir</name> <value>/usr/ local /hadoop/data</value> <final>true</final> </property> <!-- 设置hdfs中文件保存的份数,伪分布式设为 1 --> <property> <name>dfs.replication</name> <value> 1 </value> <final>true</final> </property> </configuration> 修改mapred-site.xml [root@controller hadoop]# vim mapred-site.xml <configuration> <property> <name>mapred.job.tracker</name> <value> 192.168 . 128.166: 9001 </value> <final>true</final> </property> </configuration> 配置环境变量 export HADOOP_INSTALL=/usr/ local /hadoop export PATH=$PATH:$HADOOP_INSTALL/bin export HADOOP_COMMON_LIB_NATIVE_DIR=/usr/ local /hadoop/lib/native export HADOOP_OPTS=-Djava.library.path=/usr/ local /hadoop/lib 格式化hdsf hdfs namenode – format 启动服务 [root@controller hadoop]# /usr/ local /hadoop/sbin/start- all .sh 访问hadoop的管理界面: HDFS管理界面:http://xxxx: 50070 MR管理界面:http://xxxx: 8088 |
如对您有帮助,支持下呗!
微信

支付宝

【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· .NET Core 中如何实现缓存的预热?
· 从 HTTP 原因短语缺失研究 HTTP/2 和 HTTP/3 的设计差异
· AI与.NET技术实操系列:向量存储与相似性搜索在 .NET 中的实现
· 基于Microsoft.Extensions.AI核心库实现RAG应用
· Linux系列:如何用heaptrack跟踪.NET程序的非托管内存泄露
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· 阿里巴巴 QwQ-32B真的超越了 DeepSeek R-1吗?
· 【译】Visual Studio 中新的强大生产力特性
· 【设计模式】告别冗长if-else语句:使用策略模式优化代码结构
· AI与.NET技术实操系列(六):基于图像分类模型对图像进行分类