摘要:
这里我只使用kxcompute1节点配置为示例,其它节点的配置基本是一样的,只是声明的管理IP不同而已 计算节点 # yum install openstack-nova-compute sysfsutils 修改配置文件 vi /etc/nova/nova.conf [DEFAULT] vcpu_ 阅读全文
摘要:
一、首先登录controller1创建nova数据库,并赋于远程和本地访问的权限。 mysql -u root -p CREATE DATABASE nova; GRANT ALL PRIVILEGES ON nova.* TO 'nova'@'localhost' IDENTIFIED BY 'v 阅读全文
摘要:
一、首先登录kxcontroller1创建kx_nova数据库,并赋于远程和本地访问的权限。 mysql -u root -p CREATE DATABASE kx_nova; GRANT ALL PRIVILEGES ON kx_nova.* TO 'nova'@'localhost' IDENT 阅读全文
摘要:
采用Rysnc单向同步,而不用双方实时同步,原因是在历史的运行过程中,我们发现,有些镜像包太大,当在主用的glance将镜像保存时,并不是一时半会就把镜像保存好,当主用在保存时,备用节点又在实时同步那个正常拷贝保存状态中的不完整主用文件,因此我们会看到在备节点上,它删了又拷的方式,非常损耗机器的硬盘 阅读全文
摘要:
首先登录controller1创建glance数据库,并赋于远程和本地访问的权限。 mysql -u root -p CREATE DATABASE glance; GRANT ALL PRIVILEGES ON glance.* TO 'glance'@'localhost' IDENTIFIED 阅读全文
摘要:
首先登录kxcontroller1创建kx_glance数据库,并赋于远程和本地访问的权限。 mysql -u root -p CREATE DATABASE kx_glance; GRANT ALL PRIVILEGES ON kx_glance.* TO 'glance'@'localhost' 阅读全文
摘要:
其中一台controller上面加入环境变量,我选controller1,关注的是endpoint的名称不一样,其它创建的参数与生产环境一致 export OS_TOKEN=venicchina export OS_URL=http://controller:35357/v3 export OS_I 阅读全文
摘要:
其中一台controller上面加入环境变量,我选kxcontroller1,关注的是endpoint的名称不一样,其它创建的参数与测试环境一致 export OS_TOKEN=venicchina export OS_URL=http://kxcontroller:35357/v3 export 阅读全文
摘要:
首先登录controller1创建keystone数据库,并赋于远程和本地访问的权限。 mysql -u root -p CREATE DATABASE keystone; GRANT ALL PRIVILEGES ON keystone.* TO 'keystone'@'localhost' ID 阅读全文
摘要:
其实登录数据库集群中任意1台都可以创建库,它们会实时自动同步数据库和对应的数据库权限。 首先登录kxcontroller1创建kx_keystone数据库,并赋于远程和本地访问的权限。 mysql -u root -p CREATE DATABASE keystone; GRANT ALL PRIV 阅读全文
摘要:
生产环境建议在集群三台controller上做rabbitmq 使用到队列的openstack组件 OpenStack Compute OpenStack Block Storage OpenStack Networking Telemetry 生产环境建议在集群三台controller上做rabb 阅读全文
摘要:
kxcontroller1 kxcontroller2 controller1 这3台作角色 确保服务器的域名解析访问正常 确保NTP时间同步 配置HAproxy主备访问,其中的一项数据库3306端口项,参考Haproxy配置文档。 每台安装如下包 201511月的安装包如下 yum install 阅读全文
摘要:
续上一节说明 一开始我也是使用haproxy来做的,但后来方式改了,是因为物理机controller的高配置有些浪费,我需要1组高可用的上层nginx代理服务器来实现其它域名80代理访问,很多办公网测试的域名解析58.251.17.238的IP,都是复用走这组controller的nginx 测试环 阅读全文
摘要:
官方文档上的高可用配置,它推荐的是使用haproxy的上层代理来实现服务组件的主备访问、或者负载均衡访问 一开始我也是使用haproxy来做的,但后来方式改了 测试环境:haproxy + nginx 科兴环境:haproxy 先抛开测试环境,等下我再在4.2节中解说一下配置 两边的kxcontro 阅读全文
摘要:
这里只用到keepalived 或者pacemaker两种方法,可二选一来配置,官方提供的是pacemaker,但我们实际测试环境和生产环境上使的是keepalive 首先在4台controller上安装包(kxcontroller1 \ kxcontroller2 \ controller1 \ 阅读全文
摘要:
服务器物理机都安装centos7.2 1511版本 , 此次采用的分区方式全是自动XFS格式LVM,在装系统时就将所有本地raid5硬盘都加入LVM全用了。默认/home目录有着最大的硬盘空间 并且我全程是使用root用户身份进行安装 1、配置办公网openstack的所有物理服务器的域名解析,添加 阅读全文
摘要:
图1说明:办公网的openstack使用2台交换机,10.40.40.2是24口 10.40.40.6是48口,管理网段接10.40.40.2VLAN1002 虚拟机的public网段接10.40.40.6的VLAN1100 。因为10.40.40.6可以支持一个接口配置多个网段,而另一台交换机不支 阅读全文
摘要:
该环境布署文档,因项目运营中止2年,IDC均早已撤回。使用openstack 版本虽老,但弃之可惜,故贴出分享,其中已经将各个组件密码进行了提前替换,仅供参考 管理控制层面示图: 其实在修改这个布署文档是,我发现当时生产中的布署已经严重偏离了openstack高可用的指导思想。我们自己实践的高可用其 阅读全文