随笔 - 366  文章 - 0  评论 - 101  阅读 - 30万

hdp2.4搭建

1、集群安装

2、配置Standby NameNode  、Standby HBase Master

3、集群扩容节点、添加zk、jn

 

一、集群安装

虚拟机目录 /data/www/html/hbase

httpd配置文件修改下面三行路径     vi /etc/httpd/conf/httpd.conf   (默认是/var/www/html/)

DocumentRoot "/data/www/html"
<Directory "/data/www">
<Directory "/data/www/html">
重启 /bin/systemctl restart httpd.service  (启动httpd   /bin/systemctl start httpd.service)

浏览器访问 http://192.168.159.11/hbase/

 

 

 

关闭透明大页

[root@hdp11 ~]# cat /sys/kernel/mm/transparent_hugepage/enabled
[always] madvise never
[root@hdp11 ~]# echo never > /sys/kernel/mm/transparent_hugepage/enabled
[root@hdp11 ~]# cat /sys/kernel/mm/transparent_hugepage/enabled
always madvise [never]

yum文件

[root@hdp1 hbase]# cat /etc/yum.repos.d/hdp.repo

  

 所有节点

yum -y install ambari-agent
ambari-agent start
chkconfig --add ambari-agent

修改配置文件hostname       /etc/ambari-agent/conf/ambari-agent.ini        service ambari-agent restart

master节点 yum install ambari-server -y

初始化ambari-server      ambari-server setup

一路默认(jdk选[3] Custom JDK   填JAVA_HOME地址     数据库选[1] - PostgreSQL (Embedded))

ambari账号密码 都是admin(或者ambari)

Database name (ambari):
Postgres schema (ambari):
Username (ambari):
Enter Database Password (bigdata):

启动service ambari-server start      页面访问http://192.168.159.19:8080/    admin admin

  

                         

Name your cluster   kzx_pay_hf

HDP 2.4

Advanced Repository Options  (参考 /etc/yum.repos.d/hdp.repo)

 

 

 

 

 

Choose Services

HDFS   HBase    ZooKeeper   Ambari Metrics

 

 

这里注意 failed disk tolerance设置,测试环境如果只有一个磁盘 又设置1会导致datanode启动失败

报org.apache.hadoop.util.DiskChecker$DiskErrorException: Invalid volume failure  config value: 1

【HDFS问题】datanode启动失败的问题

 集群安装完毕!!!

 

 

二、配置Standby NameNode  、Standby HBase Master

为集群配置 Standby NameNode  、Standby HBase Master


三、集群扩容节点、添加zk、jn

扩容集群:添加2个节点,添加zk、JournalNode

现有集群hdp1、hdp2、hdp3准备2个新节点bjc-hdp4 bjc-hdp5  并初始化 (修改好/etc/ambari-agent/conf/ambari-agent.ini)

复制代码
192.168.159.11 hdp1.kzx.com hdp1 
192.168.159.12 hdp2.kzx.com hdp2
192.168.159.13 hdp3.kzx.com hdp3

192.168.159.14 bjc-hdp4.kzx.com bjc-hdp4
192.168.159.15 bjc-hdp5.kzx.com bjc-hdp5

192.168.159.16 hdp6.kzx.com hdp6
192.168.159.17 hdp7.kzx.com hdp7
192.168.159.18 hdp8.kzx.com hdp8

192.168.159.19 hdp9.kzx.com hdp9
192.168.159.20 hdp10.kzx.com hdp10
192.168.159.21 hdp11.kzx.com hdp11
复制代码

 

Ambari界面Hosts-->Actions-->Add New Hosts

              

如果Status显示失败,检查ambari-agent配置并重启再recheck试试  systemctl restart ambari-agent.service(service ambari-agent restart)

 

        

       

 

等待红色警告消失

安装zk

 Add ZooKeeper Server   

 添加好2个zk

 这时候先别启动新增的两个zk

 

    这里没有要重启zk

  不要用这个restart All,应该一个个节点进行重启affected的应用。

  不用用restart ALL

 

逐个重启rs和hmaster后就要解决zk重启的问题

(停1个非leader的zk,保留2个旧zk)重启全部zk ,10s内重启好,不会影响集群

 while :;do  echo -n  "                                  ";date; for i in hdp1 hdp2 hdp3 bjc-hdp4 bjc-hdp5 ;do  echo -n "$i:"; echo mntr|nc $i 2181|grep zk_server_state;done;sleep 2;done 

 

安装jn

 

以下两条命令操作加jn(红色是需要修改的):
curl -u admin:admin -H 'X-Requested-By: ambari' -X POST http://hdp1:8080/api/v1/clusters/kzx_pay/hosts/bjc-hdp4.kzx.com/host_components/JOURNALNODE

curl -u admin:admin -H 'X-Requested-By: ambari' -X PUT -d '{"RequestInfo":{"context":"Install JournalNode"},"Body":{"HostRoles":{"state":"INSTALLED"}}}' http://hdp1:8080/api/v1/clusters/kzx_pay/hosts/bjc-hdp4.kzx.com/host_components/JOURNALNODE

 

HDFS
Configs
Advanced
Custom hdfs-site
dfs.namenode.shared.edits.dir
qjournal://hdp1.kzx.com:8485;hdp2.kzx.com:8485;hdp3.kzx.com:8485;bjc-hdp4:8485;bjc-hdp5:8485/kzxpay
qjournal://bjc-hdp4.kzx.com:8485;bjc-hdp5.kzx.com:8485;hdp1.kzx.com:8485;hdp2.kzx.com:8485;hdp3.kzx.com:8485/kzxpay

save

 

 Restart Required: 17 Components on Hosts   

逐个重启  jn先不重启(3个jn running 2个stop   重启一个就只有2个running了)

再 先启动两个新jn     最后逐个restart旧的3个jn

 

 

 

 

 


hdp1   ll /hadoop/hdfs/journal
新jn节点 mkdir -pv /hadoop/hdfs/journal/kzxpay
hdp1    scp -r /hadoop/hdfs/journal/kzxpay/* hdp5:/hadoop/hdfs/journal/kzxpay/
chown hdfs:hadoop -R /hadoop/hdfs/journal/
界面启动 然后删除lock文件 检查是否有最新lock文件生成   rm -f /hadoop/hdfs/journal/kzxpay/in_use.lock 
cat /hadoop/hdfs/journal/kzxpay/in_use.lock
ls -lrt /hadoop/hdfs/journal/kzxpay/current/*inprogress*
重启 nn1 nn2

posted on   寒星12345678999  阅读(22)  评论(2编辑  收藏  举报
相关博文:
阅读排行:
· DeepSeek 开源周回顾「GitHub 热点速览」
· 物流快递公司核心技术能力-地址解析分单基础技术分享
· .NET 10首个预览版发布:重大改进与新特性概览!
· AI与.NET技术实操系列(二):开始使用ML.NET
· .NET10 - 预览版1新功能体验(一)
历史上的今天:
2015-04-29 JAVA中toString方法的作用
< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5

点击右上角即可分享
微信分享提示