hortonworks2.5.3 install step log
1.创建本地YUM源,
下载TAR。GZ HDP,HDP-UTILS,AMBARI介质
安装HTTPD,在/VAR/WWW/HTML/下创建三个相应的目录,把以上解压的三个目录链接过来
在三个目录中执行命令,createrepo ./
至此,本地YUM源创建完毕。
cd /etc/yum.repos.d/
cat ambari.repo
[ambari-2.x]
name=Ambari 2.x
baseurl=http://localhost/ambari/
gpgcheck=0
enabled=1
[HDP-UTILS-1.x]
name=Hortonworks Data Platform Utils Version - HDP-UTILS-1.x
baseurl=http://localhost/hdp-utils
gpgcheck=0
enabled=1
[HDP]
name=hdp2.5.x
baseurl=http://localhost/hdp
gpgcheck=0
enabled=1
2.首先安装AMBARI
yum install ambari-server -y
设置AMBARI
ambari-server setup
ambari-server start
3.localhost:8080
fqdn:
包含HOSTNAME:DOMAINNAME
vi /etc/hosts
127.0.0.1 student.org
ambari-server setup --jdbc-db=mysql --jdbc-driver=/usr/share/java/mysql-connector-java.jar
必须执行这一句,它会把JDBC的JAR包复制到AMBARI的CLASSPATH,这样你在HIVE配置MYSQL METASTORE的时候才能测试连接成功。
我想实现的效果是这样的,使用AMBARI快速部署开发和生产的大数据环境,在本机上先多次完成模拟测试,使用本机的DOCKER来构建三台机器,然后使用AMBARI快速安装理解AMBARI是如何来管理HDP的组件的,原理是什么?
能否让其来管理APACHE或者CDH的组件?这样就方便了 yum localinstall ambari-server.*** -y
2.setup the ambari server
ambari-server setup
yum install mysql-connector-java
create user/pwd for ambari user;
CREATE USER 'ambari'@'%' IDENTIFIED BY 'ambari';
GRANT ALL PRIVILEGES ON *.* TO 'ambari'@'%';
CREATE USER 'ambari'@'localhost' IDENTIFIED BY 'ambari';
GRANT ALL PRIVILEGES ON *.* TO 'ambari'@'localhost';
CREATE USER 'ambari'@'%' IDENTIFIED BY 'ambari';
GRANT ALL PRIVILEGES ON *.* TO 'ambari'@'%';
FLUSH PRIVILEGES;
cd /var/lib/ambari-server/resources/
http://docs.hortonworks.com/HDPDocuments/Ambari-2.4.2.0/bk_ambari-reference/content/using_ambari_with_mysql.html
3.ambari-server start
如果启动失败,就去查看其中的日志,在安装的过程中,也可以直接tail -f /var/log/ambari-server/ambari-server.log这样的好处时,可以直接看到任务进行的细节,及时发现问题。
4
注意ambari,自动创建了一个用户组hadoop,和hdfs,hive,spark等用户,如果你想使用你本机的某个用户来访问hadoop,
你需要把这个用户加入到hadoop组。
查看本机用户组: cat /etc/group |grep hadoop
添加用户到某个组: gpasswd -a userName groupName