openstack(Pike 版)集群部署(八)--- 连接Ceph Cluster 作为后端存储
一、openstack Glance + ceph Cluster 部署:
博客:http://www.cnblogs.com/weijie0717/p/8563294.html
参考 续 部分。
二、openstack Cinder + ceph cluster 部署:
博客:http://www.cnblogs.com/weijie0717/p/8652236.html
三、openstack Nova + ceph cluster 部署:
在第二部分中已经做了大部分操作。我们只需要在针对Nova配置做出一些完善即可。
1、在第二步之前其实已经 在ceph cluster 中创建了 pool:vms。
# ceph osd pool create vms 128 128
2、完成第二步操作之后,直接配置nova.conf
# vim /etc/nova/nova.conf
[libvirt] virt_type = qemu images_type = rbd images_rbd_pool = vms images_rbd_ceph_conf = /etc/ceph/ceph.conf rbd_user = cinder rbd_secret_uuid = 953c13f7-76e1-48b3-a982-cf0ee5c51039 disk_cachemodes="network=writeback" live_migration_flag="VIR_MIGRATE_UNDEFINE_SOURCE,VIR_MIGRATE_PEER2PEER,VIR_MIGRATE_LIVE,VIR_MIGRATE_PERSIST_DEST,VIR_MIGRATE_TUNNELLED" libvirt_inject_password = false libvirt_inject_key = false libvirt_inject_partition = -2
经过 Glance 和Cinder 配置之后,相信大家对 上述的配置应该已不再陌生,不必做太多解释。
3、重启服务。
# systemctl restart libvirtd.service openstack-nova-compute.service
4、验证
在web 段创建实例,如果可以创建成功。证明配置成功。也可以通过实例ID 到 ceph集群中进行查看。
部署成功。
IT运维开发路上的点点滴滴。。。