摘要:
这一小节基本配置相同,但留意以下紫色部份的配置,当初为了管理方便,我们让办公网openstack的dashboard的登录桥接了科兴的dashboard,由此统一dashboard界面的登录地址 2台controller安装组件 # yum install openstack-dashboard - 阅读全文
摘要:
2台kxcontroller安装组件 # yum install openstack-dashboard -y 修改一样的配置 vi /etc/openstack-dashboard/local_settings 查找以下内容进行修改 OPENSTACK_HOST="kxcontroller" AL 阅读全文
摘要:
所有compute节点 下载安装组件 # yum install openstack-neutron openstack-neutron-linuxbridge ebtables ipset -y 修改新增内核参数: vi /etc/sysctl.conf net.ipv4.conf.default 阅读全文
摘要:
所有kxcompute节点 下载安装组件 # yum install openstack-neutron openstack-neutron-linuxbridge ebtables ipset -y 修改新增内核参数: vi /etc/sysctl.conf net.ipv4.conf.defau 阅读全文
摘要:
网络这一块推荐使用的是 Neutron--LinuxBirdge的Ha高可用,此高可用方案对Public作用不是很大,Public只用到DHCP,而Private则会用到L3 Agent,则此方案是有用的,但要关掉和牺牲一个L3 population的特性--抑制ARP报文广播。原因在下文的配置文件 阅读全文
摘要:
网络这一块推荐使用的是 Neutron--LinuxBirdge的Ha高可用,此高可用方案对Public作用不是很大,Public只用到DHCP,而Private则会用到L3 Agent,则此方案是有用的,但要关掉和牺牲一个L3 population的特性--抑制ARP报文广播。原因在下文的配置文件 阅读全文
摘要:
云主机迁移+扩展云主机大小 ,官方说它依赖nova用户之间的免密登录。确保每个resion区域的compute节点服务器他们可以相互SSH免密 compute1-7 他们相互SSH免密 kxcompute1-9 他们相互SSH免密 1、注意!是每台机器上的nova用户向另一台机器的nova用户的免密 阅读全文
摘要:
这里我只使用compute1节点配置为示例,其它节点的配置基本是一样的,只是声明的管理IP不同而已 计算节点 # yum install openstack-nova-compute sysfsutils 修改配置文件 vi /etc/nova/nova.conf [DEFAULT] resume_ 阅读全文
摘要:
这里我只使用kxcompute1节点配置为示例,其它节点的配置基本是一样的,只是声明的管理IP不同而已 计算节点 # yum install openstack-nova-compute sysfsutils 修改配置文件 vi /etc/nova/nova.conf [DEFAULT] vcpu_ 阅读全文
摘要:
一、首先登录controller1创建nova数据库,并赋于远程和本地访问的权限。 mysql -u root -p CREATE DATABASE nova; GRANT ALL PRIVILEGES ON nova.* TO 'nova'@'localhost' IDENTIFIED BY 'v 阅读全文
摘要:
一、首先登录kxcontroller1创建kx_nova数据库,并赋于远程和本地访问的权限。 mysql -u root -p CREATE DATABASE kx_nova; GRANT ALL PRIVILEGES ON kx_nova.* TO 'nova'@'localhost' IDENT 阅读全文
摘要:
采用Rysnc单向同步,而不用双方实时同步,原因是在历史的运行过程中,我们发现,有些镜像包太大,当在主用的glance将镜像保存时,并不是一时半会就把镜像保存好,当主用在保存时,备用节点又在实时同步那个正常拷贝保存状态中的不完整主用文件,因此我们会看到在备节点上,它删了又拷的方式,非常损耗机器的硬盘 阅读全文
摘要:
首先登录controller1创建glance数据库,并赋于远程和本地访问的权限。 mysql -u root -p CREATE DATABASE glance; GRANT ALL PRIVILEGES ON glance.* TO 'glance'@'localhost' IDENTIFIED 阅读全文
摘要:
首先登录kxcontroller1创建kx_glance数据库,并赋于远程和本地访问的权限。 mysql -u root -p CREATE DATABASE kx_glance; GRANT ALL PRIVILEGES ON kx_glance.* TO 'glance'@'localhost' 阅读全文
摘要:
其中一台controller上面加入环境变量,我选controller1,关注的是endpoint的名称不一样,其它创建的参数与生产环境一致 export OS_TOKEN=venicchina export OS_URL=http://controller:35357/v3 export OS_I 阅读全文
摘要:
其中一台controller上面加入环境变量,我选kxcontroller1,关注的是endpoint的名称不一样,其它创建的参数与测试环境一致 export OS_TOKEN=venicchina export OS_URL=http://kxcontroller:35357/v3 export 阅读全文
摘要:
首先登录controller1创建keystone数据库,并赋于远程和本地访问的权限。 mysql -u root -p CREATE DATABASE keystone; GRANT ALL PRIVILEGES ON keystone.* TO 'keystone'@'localhost' ID 阅读全文
摘要:
其实登录数据库集群中任意1台都可以创建库,它们会实时自动同步数据库和对应的数据库权限。 首先登录kxcontroller1创建kx_keystone数据库,并赋于远程和本地访问的权限。 mysql -u root -p CREATE DATABASE keystone; GRANT ALL PRIV 阅读全文
摘要:
生产环境建议在集群三台controller上做rabbitmq 使用到队列的openstack组件 OpenStack Compute OpenStack Block Storage OpenStack Networking Telemetry 生产环境建议在集群三台controller上做rabb 阅读全文
摘要:
kxcontroller1 kxcontroller2 controller1 这3台作角色 确保服务器的域名解析访问正常 确保NTP时间同步 配置HAproxy主备访问,其中的一项数据库3306端口项,参考Haproxy配置文档。 每台安装如下包 201511月的安装包如下 yum install 阅读全文