Fork me on GitHub

CDH| Cloudera Manager的安装

1. cloudera manager的概念

简单来说,Cloudera Manager是一个拥有集群自动化安装、中心化管理、集群监控、报警功能的一个工具(软件),使得安装集群从几天的时间缩短在几个小时内,运维人员从数十人降低到几人以内,极大的提

高集群管理的效率。

功能

1)   管理:对集群进行管理,如添加、删除节点等操作。

2)   监控:监控集群的健康情况,对设置的各种指标和系统运行情况进行全面监控。

3)   诊断:对集群出现的问题进行诊断,对出现的问题给出建议解决方案。

4)   集成:多组件进行整合。

架构

1)   Server:负责软件安装、配置,启动和停止服务,管理服务运行的群集。核心

2)   Agent:安装在每台主机上。负责启动和停止进程,配置,监控主机。

3)   Management Service:由一组执行各种监控,警报和报告功能角色的服务。图表的生成和管理

4)   Database:存储配置和监视信息。

5)   Cloudera Repository:软件由Cloudera 管理分布存储库。(有点类似Maven的中心仓库;在线安装(从中心仓库拉取)和离线安装(离线库)

6)   Clients:是用于与服务器进行交互的接口(API和Admin Console)

2. 准备安装环境

主节点10g /16G
其他节点2G /4G
其他节点2G /4G
硬盘情况:
[root@hadoop101 ~]# df -h

1. SSH免密登录

配置hadoop101对hadoop101、hadoop102、hadoop103三台服务器免密登录。CDH服务开启与关闭是通过server和agent来完成的,所以这里不需要配置SSH免密登录,但是为了我们分发文件方便,在这里我

们也配置SSH。

1)生成公钥和私钥:

[root@hadoop101 .ssh]$ ssh-keygen -t rsa

然后敲(三个回车),就会生成两个文件id_rsa(私钥)、id_rsa.pub(公钥)

2)将公钥拷贝到要免密登录的目标机器上

[root@hadoop101 .ssh]$ ssh-copy-id hadoop101
[root@hadoop101 .ssh]$ ssh-copy-id hadoop102
[root@hadoop101 .ssh]$ ssh-copy-id hadoop103

3)重复1和2的操作,配置hadoop102对hadoop101、hadoop102、hadoop103三台服务器免密登录。

2.  集群同步脚本

1)在/root目录下创建bin目录,并在bin目录下创建文件xsync,文件内容如下:

[root@hadoop101 ~]$ mkdir bin
[root@hadoop101 ~]$ cd bin/
[root@hadoop101 bin]$ vi xsync
#!/bin/bash

#1 获取输入参数个数,如果没有参数,直接退出
pcount=$#
if((pcount==0)); then
echo no args;
exit;
fi

#2 获取文件名称
p1=$1
fname=`basename $p1`
echo fname=$fname

#3 获取上级目录到绝对路径
pdir=`cd -P $(dirname $p1); pwd`
echo pdir=$pdir

#4 获取当前用户名称
user=`whoami`
 
#5 循环
for((host=103; host<105; host++)); do
        echo ------------------- hadoop$host --------------
        rsync -av $pdir/$fname $user@hadoop$host:$pdir
done
View Code

2)修改脚本 xsync 具有执行权限

[root@hadoop101 bin]$ chmod 777 xsync

3.  安装JDK(三台)

1)解压JDK到/opt/module目录下,并修改文件的所有者和所有者组为root

[root@hadoop101 software]$ tar -zxvf jdk-8u144-linux-x64.tar.gz -C /opt/module/

[root@hadoop101 module]# chown root:root jdk1.8.0_144/ -R

2)配置JDK环境变量

(1)打开/etc/profile文件

[root@hadoop101 software]$ vi /etc/profile
在profile文件末尾添加JDK路径

#JAVA_HOME
export JAVA_HOME=/opt/module/jdk1.8.0_144
export PATH=$PATH:$JAVA_HOME/bin

(2)让修改后的文件生效

[root@hadoop101 jdk1.8.0_144]$ source /etc/profile

3)测试JDK是否安装成功

[root@hadoop101 jdk1.8.0_144]# java -version
java version "1.8.0_144"

 

4)将hadoop101中的JDK和环境变量分发到hadoop102、hadoop103两台主机

[root@hadoop101 opt]# xsync /opt/module/
[root@hadoop101 opt]# xsync /etc/profile

分别在hadoop102、hadoop103上source一下

[root@hadoop102 ~]$ source /etc/profile
[root@hadoop103 ~]# source /etc/profile

 

4. 集群整体操作脚本

1)在/root/bin目录下创建脚本xcall.sh

[root@hadoop101 bin]$ vim xcall.sh
#! /bin/bash

for i in hadoop101 hadoop102 hadoop103
do
        echo --------- $i ----------
        ssh $i "$*"
done
View Code

2)修改脚本执行权限

[root@hadoop101 bin]$ chmod 777 xcall.sh

3)将/etc/profile文件追加到~/.bashrc后面

[root@hadoop101 module]# cat /etc/profile >> ~/.bashrc
[root@hadoop102 module]# cat /etc/profile >> ~/.bashrc
[root@hadoop103 module]# cat /etc/profile >> ~/.bashrc

4)测试

[root@hadoop101 bin]# xcall.sh jps

5.  安装MySQL

注意:一定要用root用户操作如下步骤;先卸载MySQL再安装

[root@hadoop101 software]# ll
总用量 2387020
-rw-r--r--. 1 root root 1620405492 4月   5 14:52 CDH-5.12.1-1.cdh5.12.1.p0.3-el6.parcel
-rw-r--r--. 1 root root         41 4月   5 14:51 CDH-5.12.1-1.cdh5.12.1.p0.3-el6.parcel.sha1
-rw-r--r--. 1 root root  742029734 4月   5 14:52 cloudera-manager-el6-cm5.12.1_x86_64.tar.gz
-rw-r--r--. 1 root root      72312 4月   5 14:52 manifest.json
-rw-r--r--. 1 root root   77807942 4月   5 14:54 mysql-libs.zip
-rw-r--r--. 1 root root    3969752 4月   5 14:52 MySQL-shared-compat-5.6.41-1.el6.x86_64.rpm
[root@hadoop101 software]# unzip mysql-libs.zip
Archive:  mysql-libs.zip
   creating: mysql-libs/
  inflating: mysql-libs/MySQL-client-5.6.24-1.el6.x86_64.rpm  
  inflating: mysql-libs/mysql-connector-java-5.1.27.tar.gz  
  inflating: mysql-libs/MySQL-server-5.6.24-1.el6.x86_64.rpm  

[root@hadoop101 mysql-libs]# rpm -ivh MySQL-server-5.6.24-1.el6.x86_64.rpm

[root@hadoop101 mysql-libs]# cat /root/.mysql_secret
# The random password set for the root user at Sun Apr  5 14:55:45 2020 (local time): SEACIwdkL2dPI8_g

[root@hadoop101 mysql-libs]# service mysql start
Starting MySQL....                                         [确定]
[root@hadoop101 mysql-libs]# rpm -ivh MySQL-client-5.6.24-1.el6.x86_64.rpm

[root@hadoop101 mysql-libs]# mysql -uroot -pSEACIwdkL2dPI8_g

mysql> SET PASSWORD=PASSWORD('123456');
Query OK, 0 rows affected (0.00 sec)
[root@hadoop101 mysql-libs]#  mysql -uroot -p123456

mysql> select User, Host, Password from mysql.user;
+------+-----------+-------------------------------------------+
| User | Host      | Password                                  |
+------+-----------+-------------------------------------------+
| root | localhost | *6BB4837EB74329105EE4568DDA7DC67ED2CA2AD9 |
| root | hadoop101 | *5750A2405D7ED53B669267E80F41E095C3BABC0E |
| root | 127.0.0.1 | *5750A2405D7ED53B669267E80F41E095C3BABC0E |
| root | ::1       | *5750A2405D7ED53B669267E80F41E095C3BABC0E |
+------+-----------+-------------------------------------------+
4 rows in set (0.00 sec)

mysql> update user set host='%' where host='localhost';
Query OK, 1 row affected (0.00 sec)
Rows matched: 1  Changed: 1  Warnings: 0

mysql> delete from user where Host='hadoop101';
Query OK, 1 row affected (0.00 sec)

mysql> delete from user where Host='127.0.0.1';
Query OK, 1 row affected (0.00 sec)

mysql> delete from user where Host='::1';
Query OK, 1 row affected (0.00 sec)

mysql> flush privileges;
Query OK, 0 rows affected (0.00 sec)

mysql> select User, Host, Password from user;
+------+------+-------------------------------------------+
| User | Host | Password                                  |
+------+------+-------------------------------------------+
| root | %    | *6BB4837EB74329105EE4568DDA7DC67ED2CA2AD9 |
+------+------+-------------------------------------------+
1 row in set (0.00 sec)
View Code

6. 创建CM用的数据库

[root@hadoop101 ~]# mysql -uroot -p123456
(1)集群监控数据库
create database amon DEFAULT CHARSET utf8 COLLATE utf8_general_ci;
(2)hive数据库 
create database hive DEFAULT CHARSET utf8 COLLATE utf8_general_ci;  ##安装Hive时需要创建hive数据库;如果安装失败要把它删除重写创建
(3)oozie数据库
create database oozie DEFAULT CHARSET utf8 COLLATE utf8_general_ci;
(4)hue数据库
create database hue DEFAULT CHARSET utf8 COLLATE utf8_general_ci;

7. 下载第三方依赖

依次在三台节点(所有Agent的节点)上执行下载第三方依赖(注意:需要联网)

[root@hadoop101 ~]# yum -y install chkconfig python bind-utils psmisc libxslt zlib sqlite cyrus-sasl-plain cyrus-sasl-gssapi fuse fuse-libs redhat-lsb
[root@hadoop102 ~]# yum -y install chkconfig python bind-utils psmisc libxslt zlib sqlite cyrus-sasl-plain cyrus-sasl-gssapi fuse fuse-libs redhat-lsb
[root@hadoop103 ~]# yum -y install chkconfig python bind-utils psmisc libxslt zlib sqlite cyrus-sasl-plain cyrus-sasl-gssapi fuse fuse-libs redhat-lsb

关闭SELINUX

安全增强型Linux(Security-Enhanced Linux)简称SELinux,它是一个 Linux 内核模块,也是Linux的一个安全子系统。为了避免安装过程出现各种错误,建议关闭,有如下两种关闭方法:

1)临时关闭(不建议使用)

[root@hadoop101 ~]# setenforce 0
但是这种方式只对当次启动有效,重启机器后会失效。

2)永久关闭(建议使用)

修改配置文件/etc/selinux/config
[root@hadoop101 ~]# vim /etc/selinux/config
将SELINUX=enforcing 改为SELINUX=disabled
SELINUX=disabled

3)同步/etc/selinux/config配置文件

[root@hadoop101 ~]# xsync /etc/selinux/config

4)重启hadoop101、hadoop102、hadoop103主机

[root@hadoop101 ~]# reboot
[root@hadoop102 ~]# reboot
[root@hadoop103 ~]# reboot

 

配置NTP时钟同步

1)NTP服务器配置

[root@hadoop101 ~]# vi /etc/ntp.conf
①注释掉所有的restrict开头的配置
②修改#restrict 192.168.1.0 mask 255.255.255.0 nomodify notrap
为restrict 192.168.1.101 mask 255.255.255.0 nomodify notrap
③将所有server配置进行注释
④添加下面两行内容
server 127.127.1.0
fudge 127.127.1.0 stratum 10

2)启动NTP服务 service ntpd start

[root@hadoop101 ~]# service ntpd start

3)NTP客户端配置(在agent主机上进行配置hadoop102,hadoop103)

[root@hadoop102 ~]# vi /etc/ntp.conf
①注释所有restrict和server配置
②添加server 192.168.1.101

4)手动测试

[root@hadoop102 ~]# ntpdate 192.168.1.101
显示如下内容为成功:
17 Jun 15:34:38 ntpdate[9247]: step time server 192.168.1.101 offset 77556618.173854 sec
如果显示如下内容需要先关闭ntpd:
17 Jun 15:25:42 ntpdate[8885]: the NTP socket is in use, exiting

5)启动ntpd并设置为开机自启(每个节点hadoop101,hadoop102,hadoop103)

[root@hadoop102 ~]#  chkconfig ntpd on
[root@hadoop102 ~]#  service ntpd start

6)使用群发date命令查看结果

 

 

3. CM安装部署

1)CM下载地址:http://archive.cloudera.com/cm5/cm/5/

2)离线库下载地址:http://archive.cloudera.com/cdh5/parcels

注:以下所有操作均使用root用户

1)创建/opt/module/cm目录

[root@hadoop101 module]# mkdir –p /opt/module/cm

2)上传cloudera-manager-el6-cm5.12.1_x86_64.tar.gz到hadoop101的/opt/software目录,并解压到/opt/module/cm目录

[root@hadoop101 software]# tar -zxvf cloudera-manager-el6-cm5.12.1_x86_64.tar.gz -C /opt/module/cm

3)分别在hadoop101、hadoop102、hadoop103创建用户cloudera-scm

[root@hadoop101 module]#
useradd \
--system \
--home=/opt/module/cm/cm-5.12.1/run/cloudera-scm-server \
--no-create-home \
--shell=/bin/false \
--comment "Cloudera SCM User" cloudera-scm

[root@hadoop102 module]#
useradd \
--system \
--home=/opt/module/cm/cm-5.12.1/run/cloudera-scm-server \
--no-create-home \
--shell=/bin/false \
--comment "Cloudera SCM User" cloudera-scm


[root@hadoop103 module]#
useradd \
--system \
--home=/opt/module/cm/cm-5.12.1/run/cloudera-scm-server \
--no-create-home \
--shell=/bin/false \
--comment "Cloudera SCM User" cloudera-scm

参数说明:

--system 创建一个系统账户

--home 指定用户登入时的主目录,替换系统默认值/home/<用户名>

--no-create-home 不要创建用户的主目录

--shell 用户的登录 shell 名

--comment 用户的描述信息

注意:Cloudera Manager默认去找用户cloudera-scm,创建完该用户后,将自动使用此用户。

4)修改CM Agent配置 

修改文件/opt/module/cm/cm-5.12.1/etc/cloudera-scm-agent/ config.ini的主机名称
[root@hadoop101 cloudera-scm-agent]# vim /opt/module/cm/cm-5.12.1/etc/cloudera-scm-agent/config.ini

修改主机名称
server_host=hadoop101

5)配置CM的数据库 ,在主节点创建即可。

拷贝mysql-connector-java-5.1.27-bin.jar文件到目录 /usr/share/java/    

[root@hadoop101 cm]# mkdir –p /usr/share/java/
[root@hadoop101 mysql-libs]# tar -zxvf mysql-connector-java-5.1.27.tar.gz
[root@hadoop101 mysql-libs]# cp /opt/software/mysql-libs/mysql-connector-java-5.1.27/mysql-connector-java-5.1.27-bin.jar /usr/share/java/
[root@hadoop101 mysql-libs]# mv /usr/share/java/mysql-connector-java-5.1.27-bin.jar /usr/share/java/mysql-connector-java.jar

注意:jar包名称要修改为mysql-connector-java.jar
6)使用CM自带的脚本,在MySQL中创建CM库

[root@hadoop101 cm-5.12.1]#
/opt/module/cm/cm-5.12.1/share/cmf/schema/scm_prepare_database.sh mysql cm -hhadoop101 -uroot -p123456 --scm-host hadoop101 scm scm scm

参数说明

-h:Database host

-u:Database username

-p:Database Password

--scm-host:SCM server's hostname

7)分发cm

[root@hadoop101 module]# xsync /opt/module/cm

8)创建Parcel-repo目录

 Servre 节点创建目录/opt/cloudera/parcel-repo
[root@hadoop101 module]# mkdir -p /opt/cloudera/parcel-repo
[root@hadoop101 module]# chown cloudera-scm:cloudera-scm /opt/cloudera/parcel-repo

9)拷贝下载文件manifest.json 、CDH-5.12.1-1.cdh5.12.1.p0.3-el6.parcel.sha1 、CDH-5.12.1-1.cdh5.12.1.p0.3-el6.parcel到hadoop102的/opt/cloudera/parcel-repo/目录下

[root@hadoop101 parcel-repo]# ls

CDH-5.12.1-1.cdh5.12.1.p0.3-el6.parcel  CDH-5.12.1-1.cdh5.12.1.p0.3-el6.parcel.sha1 
manifest.json

10)将CDH-5.12.1-1.cdh5.12.1.p0.3-el6.parcel.sha1:需改名为

CDH-5.12.1-1.cdh5.12.1.p0.3-el6.parcel.sha

[root@hadoop101 parcel-repo]# mv CDH-5.12.1-1.cdh5.12.1.p0.3-el6.parcel.sha1 CDH-5.12.1-1.cdh5.12.1.p0.3-el6.parcel.sha

11)在hadoop101上创建目录/opt/cloudera/parcels,并修改该目录的所属用户及用户组为cloudera-scm

[root@hadoop101 module]# mkdir -p /opt/cloudera/parcels
[root@hadoop101 module]# chown cloudera-scm:cloudera-scm /opt/cloudera/parcels

启动CM服务

1)启动服务节点:hadoop101

[root@hadoop101 cm]# /opt/module/cm/cm-5.12.1/etc/init.d/cloudera-scm-server start

Starting cloudera-scm-server:                              [确定]

2)启动工作节点:hadoop101、hadoop102、hadoop103

[root@hadoop101 cm]# /opt/module/cm/cm-5.12.1/etc/init.d/cloudera-scm-agent start
[root@hadoop102 cm]# /opt/module/cm/cm-5.12.1/etc/init.d/cloudera-scm-agent start
[root@hadoop103 cm]# /opt/module/cm/cm-5.12.1/etc/init.d/cloudera-scm-agent start

注意:启动过程非常慢,Manager启动成功需要等待5分钟左右,过程中会在数据库中创建对应的表需要耗费一些时间。

3)查看被占用则表示安装成功了!!!

[root@hadoop101 cm]# netstat -anp | grep 7180
tcp        0      0 0.0.0.0:7180                0.0.0.0:*                   LISTEN      5498/java

4)访问http://hadoop101:7180,(用户名、密码:admin)

关闭CM服务

1)关闭工作节点:hadoop101、hadoop102、hadoop103

[root@hadoop101 cm]# /opt/module/cm/cm-5.12.1/etc/init.d/cloudera-scm-agent stop
Stopping cloudera-scm-agent:                               [确定]

[root@hadoop102 cm]# /opt/module/cm/cm-5.12.1/etc/init.d/cloudera-scm-agent stop
Stopping cloudera-scm-agent:                               [确定]

[root@hadoop103 cm]# /opt/module/cm/cm-5.12.1/etc/init.d/cloudera-scm-agent stop
Stopping cloudera-scm-agent:                               [确定]

2)关闭服务节点:hadoop101

[root@hadoop101 cm]# /opt/module/cm/cm-5.12.1/etc/init.d/cloudera-scm-server stop

停止 cloudera-scm-server:                                 [确定]

 

 

按装CM
1. 解压cloudera-manager-el6-cm5.12.1_x86_64.tar.gz
[root@hadoop104 module]# mkdir /opt/module/cloudera-manager
[root@hadoop104 module]# tar -zxvf /opt/software/cloudera-manager-el6-cm5.12.1_x86_64.tar.gz -C /opt/module/cloudera-manager/

2. 创建用户cloudera-scm(所有节点,三个节点都创建)
[root@hadoop104 cloudera-manager]# useradd --system --home=/opt/module/cloudera-manager/cm-5.12.1/run/cloudera-scm-server --no-create-home --shell=/bin/false --comment "Cloudera SCM User" cloudera-scm
[root@hadoop104 cloudera-manager]# id cloudera-scm
uid=495(cloudera-scm) gid=492(cloudera-scm) 组=492(cloudera-scm)
  #####hadoop104、hadoop105、hadoop106都需要创建cloudera-scm用户,否则在Parcel分发状态下,没有创建用户的分发,激活不了;
3. 配置CM Agent 修改文件/opt/module/cloudera-manager/cm-5.12.1/etc/cloudera-scm-agent/config.ini [root@hadoop104 cloudera-scm-agent]# vim config.ini [General] # Hostname of the CM server. server_host=hadoop104 4. 配置CM的数据库;在主节点创建即可; 拷贝mysql jar文件到目录 /usr/share/java/ [root@hadoop104 share]# mkdir /usr/share/java/ [root@hadoop104 cm-5.12.1]# cp /opt/software/mysql-libs/mysql-connector-java-5.1.27/mysql-connector-java-5.1.27-bin.jar /usr/share/java/ [root@hadoop104 share]# mv /usr/share/java/mysql-connector-java-5.1.27-bin.jar /usr/share/java/mysql-connector-java.jar • 注意jar包名称要修改为mysql-connector-java.jar 在mysql中创建cm库 [root@hadoop104 cm-5.12.1]# /opt/module/cloudera-manager/cm-5.12.1/share/cmf/schema/scm_prepare_database.sh mysql cm -hhadoop104 -uroot -p123456 --scm-host hadoop104 scm scm scm
5. 分发到其他机器中
  xsync cloudera-manager/

 创建Parcel-repo目录

创建Parcel-repo 目录
1. Servre 节点创建目录/opt/cloudera/parcel-repo
[root@hadoop104 module]# mkdir -p /opt/cloudera/parcel-repo
[root@hadoop104 module]# chown cloudera-scm:cloudera-scm /opt/cloudera/parcel-repo
2.拷贝下载文件到/opt/cloudera/parcel-repo
(1)CDH-5.12.1-1.cdh5.12.1.p0.3-el6.parcel
(2)CDH-5.12.1-1.cdh5.12.1.p0.3-el6.parcel.sha1:需改名为CDH-5.12.1-1.cdh5.12.1.p0.3-el6.parcel.sha
(3)manifest.json
[root@hadoop104 cm-5.12.1]# mv /opt/software/CDH-5.12.1-1.cdh5.12.1.p0.3-el6.parcel.sha1 /opt/software/CDH-5.12.1-1.cdh5.12.1.p0.3-el6.parcel.sha

[root@hadoop104 module]# cp /opt/software/CDH-5.12.1-1.cdh5.12.1.p0.3-el6.parcel.sha /opt/cloudera/parcel-repo/

[root@hadoop104 module]# cp /opt/software/CDH-5.12.1-1.cdh5.12.1.p0.3-el6.parcel /opt/cloudera/parcel-repo/

[root@hadoop104 module]# cp /opt/software/manifest.json /opt/cloudera/parcel-repo/

3.在Agent 节点(hadoop102,hadoop103,hadoop104)创建目录/opt/cloudera/parcels
[root@hadoop104 module]# mkdir -p /opt/cloudera/parcels 
[root@hadoop104 module]# chown cloudera-scm:cloudera-scm /opt/cloudera/parcels

[root@hadoop105 module]# mkdir -p /opt/cloudera/parcels 
[root@hadoop105 module]# chown cloudera-scm:cloudera-scm /opt/cloudera/parcels

[root@hadoop106 module]# mkdir -p /opt/cloudera/parcels 
[root@hadoop106 module]# chown cloudera-scm:cloudera-scm /opt/cloudera/parcels

4. 分发Parcel-repo
[root@hadoop104 cloudera]# xsync /opt/cloudera/

启动和关闭CM Server&Agent 服务

服务节点:hadoop104
[root@hadoop104 init.d]# /opt/module/cloudera-manager/cm-5.12.1/etc/init.d/cloudera-scm-server start
Starting cloudera-scm-server:                              [确定]
工作节点:hadoop104\hadoop105\hadoop106
[root@hadoop104 init.d]# /opt/module/cloudera-manager/cm-5.12.1/etc/init.d/cloudera-scm-agent start
正在启动 cloudera-scm-agent:                              [确定]

[root@hadoop105 module]# /opt/module/cloudera-manager/cm-5.12.1/etc/init.d/cloudera-scm-agent start
正在启动 cloudera-scm-agent:                              [确定]

[root@hadoop106 module]# /opt/module/cloudera-manager/cm-5.12.1/etc/init.d/cloudera-scm-agent start
正在启动 cloudera-scm-agent:                              [确定]
注意:启动过程非常慢,Manager 启动成功需要等待一段时间,过程中会在数据库中创建对应的表需要耗费一些时间。
[root@hadoop102 init.d]# netstat -anp | grep 7180
tcp        0      0 0.0.0.0:7180                0.0.0.0:*                   LISTEN      5498/java 
查看被占用则表示安装成功了!!!
访问http://hadoop104:7180,(用户名、密码:admin)

关闭:
服务节点:hadoop104
[root@hadoop104 init.d]# /opt/module/cloudera-manager/cm-5.12.1/etc/init.d/cloudera-scm-server stop
停止 cloudera-scm-server:                                 [确定]
工作节点:hadoop104\hadoop105\hadoop106
[root@hadoop104 init.d]# /opt/module/cloudera-manager/cm-5.12.1/etc/init.d/cloudera-scm-agent stop
Stopping cloudera-scm-agent:  

 

 

 

 

集群设置自定义安装

  

 

 选择安装服务:

    

 

 分配节点:

 集群设置全部选默认即可,自动启动进程

 

[root@hadoop104 conf]# pwd  //Hive的配置文件位置
/etc/hive/conf

HDFS重新安装的时候要把它的df文件夹给删掉
hive重新安装要把mysql里的hive库删掉;

修改权限问题两种方法:

第一种:

 

#第二种方式
[hdfs@hadoop104 init.d]$ su - hdfs  ##su用户切换时 加 - 是会把环境也切换过来;建议用这种形式;
[hdfs@hadoop104 init.d]$ hadoop fs -chmod -R 777 / 
[hdfs@hadoop104 init.d]$ exit ###不要直接su套用户,先exit结束掉 
  exit
[root@hadoop104 init.d]#

 hive的启动

[root@hadoop104 ~]# hive  ##启动hive时直接启动;
Java HotSpot(TM) 64-Bit 

[root@hadoop104 ~]# beeline    ##直接启动beeline,不用启动hiveserver2,因为在CDH上hive已经给我们启动了
Java HotSpot(TM) 64-Bit Server VM warning: ignoring option MaxPermSize=512M; support was removed in 8.0
beeline> !connect jdbc:hive2://hadoop104:10000
scan complete in 13ms
Connecting to jdbc:hive2://hadoop104:10000
Enter username for jdbc:hive2://hadoop104:10000: hive  ####用户是启动hiveserver2的用户,而不是root
Enter password for jdbc:hive2://hadoop104:10000:

 Hive配置文件所在目录:

cloudera/parcels/CDH/lib/hive/conf

 

 

 

CDH各个目录:

/opt/cloudera/parcels/ 安装各个组件目录 /opt/cloudera/parcels/CDH/bin 各种应用的shell客户端 /opt/cloudera/parcels/CDH/lib 各种应用的安装位置 各个服务组件对应的jar包 /opt/cloudera/parcels/CDH/jars 所有jar包所在目录 /var/log 各种应用的日志目录 各种应用的配置文件目录 /etc/cloudera-scm-agent/config.ini cm agent的配置目录 /etc/cloudera-scm-server/ cm server的配置目录 /etc/hadoop/conf Hadoop各个组件的配置 /etc/hive/conf hive配置文件目录 /etc/hbase/conf hbase配置文件目录 /opt/cloudera/parcels/CDH/etc是hadoop集群以及组件的配置文件文件夹 Parcels包目录 /opt/cloudera/parcel-repo/ 服务软件包数据(parcels) /opt/cloudera/parcel-cache/ 服务软件包缓存数据 服务运行时所有组件的配置文件目录 /var/run/cloudera-scm-agent/process

 

posted @ 2019-02-27 13:29  kris12  阅读(3636)  评论(0编辑  收藏  举报
levels of contents