一、环境:

     Windows:

     IDE:IntelliJ IDEA 2017.1.1

     JDK:1.8.0_161

      Maven:3.3.9

      springboot:2.0.2.RELEASE

      Linux(CentOS Linux release 7.2.1511 (Core)):

      dubbo:dubbo-admin-2.0.0

       zookeeper:zookeeper-3.4.10

二、部署zookeeper(集群方式)

   准备三台机器或虚拟机,IP为192.168.254.3(节点1)、192.168.254.4(节点2)、192.168.254.5(节点3)。

    1.下载zookeeper-3.4.10.tar.gz

     地址:http://mirror.bit.edu.cn/apache/zookeeper/

   2.解压zookeeper

     解压gz文件,在下载的zookeeper-3.4.10.tar.gz存放目下,执行tar -zxvf zookeeper-3.4.10.tar.gz,等待命令运行完成,则生成解压后的目录为zookeeper-3.4.10,进入文件夹,文件列表如下。

 

    设置zookeeper的安装目录为/usr/local,则将解压后的目录文件夹移动到此,即执行mv  zookeeper-3.4.10 /usr/local 

   3.安装配置

    (1)进入/usr/local/zookeeper/conf,复制zoo_sample.cfg文件的并命名为 zoo.cfg

   (2)编辑zoo.cfg

     vim zoo.cfg

     

 

    添加dataLogDir,设置日志目录;修改数据目录dataDir。

     zookeeper有三个重要端口,默认分别为2181、2888、3888,分别是为客户端服务端口、集群内部通信端口、选举leader使用端口。这三个端口可以根据实际情况自行修改,只要是端口未被其他一个用占用都可以使用,此处故意修改三个端口为3181、12888、13888。

修改完成后保存zoo.cfg。

   (3)复制zookeeper-3.4.10目录到其他服务器

        scp -r root@ zookeeper-3.4.10/ 192.168.254.4:/usr/local

        scp -r root@ zookeeper-3.4.10/ 192.168.254.5:/usr/local

      如果直接复制需要输入其他机器帐户密码,则需要在集群机器之间配置SSH免密登录。

   (4)集群各节点配置myid 

      将zookeeper目录复制到集群各节点后,按照上面zoo.cfg中配置的dataDir、dataLogDir中配置的实际路径,在zookeeper-3.4.10根目录下建立data、logs目录(mkdir data、mkdir logs)。

     配置后,在集群节点1进入data目录,建立myid文件,并在文件中输入1,保存

     节点1(192.168.254.3)                                              

   同理在集群节点2、节点3中分别进入data目录,建立myid文件,在文件中分别输入2、3,保存。

  节点1(192.168.254.4)                                              

 

   节点1(192.168.254.5)                               

   这里各节点myid文件中设置的数字,与zoo.cfg中配置集群节点的数字对应。          

   

 (5)集群节点启动和验证

     在节点1,启动集群# ./bin/zkServer.sh start

     

     同样,在节点2、节点3启动zookeeper。

     在三个节点都启动完成后,分别查看状态: 

       节点1:   ./bin/zkServer.sh status               

       节点2:   ./bin/zkServer.sh status               

        节点3:   ./bin/zkServer.sh status               

     可以看出,集群节点启动后,节点2被选举为leader。

  对于集群,也可以通过编写脚本批量一键启动集群节点。

      在任意一个节点zookeeper的安装目录下,新建zkBatchServer.sh,打开并编写如下内容: 

#!/bin/bash
#参数传递
usage="Usage: $0 (start|stop|status)"
if [ $# -lt 1 ]; then
    echo $usage
    exit 1
fi
behave=$1
echo "$behave zkServer cluster"

#主机名称
SERVERS="master1-hadoop master2-hadoop slave1-hadoop"
for SERVER in $SERVERS
do
#使用ssh进行启动
     echo "当前"$SERVER "正在"$behave"-----------------------"
     ssh root@$SERVER "source /etc/profile; /usr/local/zookeeper-3.4.10/bin/zkServer.sh $behave"
     echo $SERVER $behave "结束------------------------------"
done

设置完后,修改权限 chmod u+x  zkBatchServer.sh

 

zookeeper目录文件如下

批量启动集群 

# ./zkBatchServer.sh start

启动后,查看集群节点状态

# ./zkBatchServer.sh status

    (6)连接ZooKeeper的集群     

      通过192.168.254.3连接zookeeper集群,

        # ./bin/zkCli.sh -r -server 192.168.254.3:3181

上面是通过zkCli.sh连接指定的节点ip和端口连接到zookeeper集群。  

二、部署dubbo

 (1)下载编译     

dubbo项目地址https://github.com/apache/incubator-dubbo,最新的源码项目为2.6.2,不过从2.6.1后dubbo-admin已经被分离出去了,因此要部署dubbo-admin则需在           https://github.com/apache/incubator-dubbo-ops下载 。

     下载解压后,进入项目录下(即incubator-dubbo-ops-master),项目工程结构如下

     

   打开dubbo-admin\src\main\webapp\WEB-INF下的dubbo.properties,内容为:

dubbo.registry.address=zookeeper://127.0.0.1:2181
dubbo.admin.root.password=root
dubbo.admin.guest.password=guest

将注册中心的地址更改为上面配置的zookeeper集群的地址,即

dubbo.registry.address=zookeeper://192.168.254.3:3181?backup=192.168.254.4:3181,192.168.254.5:3181
dubbo.admin.root.password=root
dubbo.admin.guest.password=guest

 

    

  导入项目到idea

   或直接在项目目录控制台执行命令:mvn package -Dmaven.skip.test=true

  

执行成功后,进入incubator-dubbo-ops-master\dubbo-admin\target目录,

 

 (2)安装dubbo-admin

    将上面生成的war包拷贝到tomcat的webapps目录

    启动tomcat后,自动解压war,生成项目目录

    

     通过URL即可访问dubbo-admin

      http://192.168.254.3:8686/dubbo-admin-2.0.0/

    登录用户名密码参考dubbo.properties,其里面配置的两个账户,每个账户的用户名与密码一样

登录后可以看到管理界面如下

 

    这篇主要学习了一下结成dubbo的环境配置,为真正集成应用做一些准备工作,下篇通过具体的代码实例学习编写服务如何注册、调用。

 

 

      

 

posted on 2018-06-12 15:43  追风浪子  阅读(312)  评论(0编辑  收藏  举报