openstack(Pike 版)集群部署(八)--- 连接Ceph Cluster 作为后端存储

一、openstack Glance + ceph Cluster 部署:

  博客:http://www.cnblogs.com/weijie0717/p/8563294.html

  参考 部分。 

二、openstack Cinder + ceph cluster 部署:

  博客:http://www.cnblogs.com/weijie0717/p/8652236.html

三、openstack Nova + ceph cluster 部署:

  在第二部分中已经做了大部分操作。我们只需要在针对Nova配置做出一些完善即可。

  1、在第二步之前其实已经 在ceph cluster 中创建了 pool:vms。

    # ceph osd pool create vms 128 128

  2、完成第二步操作之后,直接配置nova.conf

    # vim /etc/nova/nova.conf    

[libvirt]
virt_type = qemu
images_type = rbd
images_rbd_pool = vms
images_rbd_ceph_conf = /etc/ceph/ceph.conf
rbd_user = cinder
rbd_secret_uuid = 953c13f7-76e1-48b3-a982-cf0ee5c51039
disk_cachemodes="network=writeback"
live_migration_flag="VIR_MIGRATE_UNDEFINE_SOURCE,VIR_MIGRATE_PEER2PEER,VIR_MIGRATE_LIVE,VIR_MIGRATE_PERSIST_DEST,VIR_MIGRATE_TUNNELLED"
libvirt_inject_password = false
libvirt_inject_key = false
libvirt_inject_partition = -2

    经过 Glance 和Cinder 配置之后,相信大家对 上述的配置应该已不再陌生,不必做太多解释。

  3、重启服务。

    # systemctl restart libvirtd.service openstack-nova-compute.service

  

  4、验证

    在web 段创建实例,如果可以创建成功。证明配置成功。也可以通过实例ID 到 ceph集群中进行查看。  

    

     

部署成功。

 

posted @ 2018-03-26 23:37  语~默  阅读(617)  评论(0编辑  收藏  举报