openstack核心组件——nova计算服务(7)

云计算openstack核心组件——nova计算服务(7)

 

一、nova介绍:

      Nova 是 OpenStack 最核心的服务,负责维护和管理云环境的计算资源。OpenStack 作为 IaaS 的云操作系统,虚拟机生命周期管理也就是通过 Nova 来实现的。
 
用途与功能 :
1) 实例生命周期管理
2) 管理计算资源
3) 网络和认证管理
4)REST 风格的 API
5) 异步的一致性通信
6)Hypervisor 透明:支持Xen,XenServer/XCP,KVM, UML, VMware vSphere and Hyper-V
 
 
在上图中可以看到,Nova 处于 Openstak 架构的中心,其他组件都为 Nova 提供支持: Glance 为 VM 提供 image Cinder 和 Swift 分别为 VM 提供块存储和对象存储 Neutron 为 VM 提供网络连接。
 
Nova 架构如下:
 
Nova 的架构比较复杂,包含很多组件。 这些组件以子服务(后台 deamon 进程)的形式运行,可以分为以下几类:
 
API
 
nova-api
是整个 Nova 组件的门户,接收和响应客户的 API 调用。所有对 Nova 的请求都首先由 nova-api 处理。nova-api 向外界暴露若干 HTTP REST API 接口 在 keystone 中我们可以查询 nova-api 的 endponits。
客户端就可以将请求发送到 endponits 指定的地址,向 nova-api 请求操作。 当然,作为最终用户的我们不会直接发送 Rest AP I请求。 OpenStack CLI,Dashboard 和其他需要跟 Nova 交换的组件会使用这些 API。
 
Nova-api 对接收到的 HTTP API 请求会做如下处理:
1. 检查客户端传入的参数是否合法有效
2. 调用 Nova 其他子服务的处理客户端 HTTP 请求
3. 格式化 Nova 其他子服务返回的结果并返回给客户端
 
nova-api 接收哪些请求?
简单的说,只要是跟虚拟机生命周期相关的操作,nova-api 都可以响应。 大部分操作都可以在 Dashboard 上找到。打开Instance管理界面
除了提供 OpenStack 自己的API,nova-api 还支持 Amazon EC2 API。 也就是说,如果客户以前使用 Amazon EC2,并且用 EC2 的 API 开发了些工具来管理虚机,那么如果现在要换成 OpenStack,这些工具可以无缝迁移到 OpenStack,因为 nova-api 兼容 EC2 API,无需做任何修改。
 
Compute Core
 
a)nova-scheduler:
虚机调度服务,负责决定在哪个计算节点上运行虚机。创建 Instance 时,用户会提出资源需求,例如 CPU、内存、磁盘各需要多少。OpenStack 将这些需求定义在 flavor 中,用户只需要指定用哪个 flavor 就可以了。
可用的 flavor 在 System->Flavors 中管理。
 
下面介绍 nova-scheduler 是如何实现调度的。在 /etc/nova/nova.conf 中,nova 通过 driver=filter_scheduler 这个参数来配置 nova-scheduler。
driver=filter_scheduler
 
Filter scheduler
Filter scheduler 是 nova-scheduler 默认的调度器,调度过程分为两步:
1. 通过过滤器(filter)选择满足条件的计算节点(运行 nova-compute)
2. 通过权重计算(weighting)选择在最优(权重值最大)的计算节点上创建 Instance。
 
Nova 允许使用第三方 scheduler,配置 scheduler_driver 即可。 这又一次体现了OpenStack的开放性。Scheduler 可以使用多个 filter 依次进行过滤,过滤之后的节点再通过计算权重选出最适合的节点。
上图是调度过程的一个示例:
1. 最开始有 6 个计算节点 Host1-Host6
2. 通过多个 filter 层层过滤,Host2 和 Host4 没有通过,被刷掉了
3. Host1,Host3,Host5,Host6 计算权重,结果 Host5 得分最高,最终入选
 
当 Filter scheduler 需要执行调度操作时,会让 filter 对计算节点进行判断,filter 返回 True 或 False。经过前面一堆 filter 的过滤,nova-scheduler 选出了能够部署 instance 的计算节点。
 
如果有多个计算节点通过了过滤,那么最终选择哪个节点呢?
 
Scheduler 会对每个计算节点打分,得分最高的获胜。 打分的过程就是 weight,翻译过来就是计算权重值,那么 scheduler 是根据什么来计算权重值呢? 
 
目前 nova-scheduler 的默认实现是根据计算节点空闲的内存量计算权重值: 空闲内存越多,权重越大,instance 将被部署到当前空闲内存最多的计算节点上。
 
 
b)nova-compute:
nova-compute 是管理虚机的核心服务,在计算节点上运行。通过调用Hypervisor API实现节点上的 instance的生命周期管理。 OpenStack 对 instance 的操作,最后都是交给 nova-compute 来完成的。 nova-compute 与 Hypervisor 一起实现 OpenStack 对 instance 生命周期的管理。
Openstack中虚机默认的保存路径在:/var/lib/nova/instances
 
通过Driver架构支持多种Hypervisor
Hypervisor是计算节点上跑的虚拟化管理程序,虚机管理最底层的程序。 不同虚拟化技术提供自己的 Hypervisor。 常用的 Hypervisor 有 KVM,Xen, VMWare 等。nova-compute 为这些 Hypervisor 定义了统一的接口,Hypervisor 只需要实现这些接口,就可以 Driver 的形式即插即用到 OpenStack 系统中。 下面是Nova Driver的架构示意图:
 
 
 
c)nova-conductor:
nova-compute 经常需要更新数据库,比如更新和获取虚机的状态。 出于安全性和伸缩性的考虑,nova-compute 并不会直接访问数据库,而是将这个任务委托给 nova-conductor。
这样做有两个显著好处:
1. 更高的系统安全性
2. 更好的系统伸缩性
 
 
Console Interface
 
nova-console: 用户可以通过多种方式访问虚机的控制台:
nova-novncproxy: 基于 Web 浏览器的 VNC 访问
nova-spicehtml5proxy: 基于 HTML5 浏览器的 SPICE 访问
nova-xvpnvncproxy: 基于 Java 客户端的 VNC 访问
nova-consoleauth: 负责对访问虚机控制台请求提供 Token 认证
nova-cert: 提供 x509 证书支持
 
Database
 
Nova 会有一些数据需要存放到数据库中,一般使用 MySQL。数据库安装在控制节点上。 Nova 使用命名为 “nova” 的数据库。
 
 
Message Queue
在前面我们了解到 Nova 包含众多的子服务,这些子服务之间需要相互协调和通信。为解耦各个子服务,Nova 通过 Message Queue 作为子服务的信息中转站。 所以在架构图上我们看到了子服务之间没有直接的连线,是通过 Message Queue 联系的。
 
 
OpenStack 默认是用 RabbitMQ 作为 Message Queue。 MQ 是 OpenStack 的核心基础组件,我们后面也会详细介绍。
 
 
二、Nova 组件如何协同工作
 
Nova 物理部署方案                                                                                       
 
       前面大家已经看到 Nova 由很多子服务组成,我们也知道 OpenStack 是一个分布式系统,可以部署到若干节点上,那么接下来大家可能就会问:Nova 的这些服务在物理上应该如何部署呢?
 
对于 Nova,这些服务会部署在两类节点上:计算节点和控制节点。
 
计算节点上安装了 Hypervisor,上面运行虚拟机。 由此可知:
1. 只有 nova-compute 需要放在计算节点上。
2. 其他子服务则是放在控制节点上的。
 
下面我们可以看看实验环境的具体部署情况。 通过在计算节点和控制节点上运行
ps -elf | grep nova 来查看运行的 nova 子服务
计算节点compute只运行了nova-compute子服务
 
控制节点controller运行了若干nova-*子服务
 
RabbitMQ 和 MySQL 也是放在控制节点上的。可能细心的同学已经发现我们的控制节点上也运行了 nova-compute。 这实际上也就意味着 devstack-controller 既是一个控制节点,同时也是一个计算节点,也可以在上面运行虚机。
 
这也向我们展示了 OpenStack 这种分布式架构部署上的灵活性: 可以将所有服务都放在一台物理机上,作为一个 All-in-One 的测试环境; 也可以将服务部署在多台物理机上,获得更好的性能和高可用。
 
另外,也可以用 nova service-list 查看 nova-* 子服务都分布在哪些节点上
 
 
从虚机创建流程看 nova-* 子服务如何协同工作                                    
      
     从学习 Nova 的角度看,虚机创建是一个非常好的场景,涉及的 nova-* 子服务很全,下面是流程图。
 
  1. 客户(可以是 OpenStack 最终用户,也可以是其他程序)向 API(nova-api)发送请求:“帮我创建一个虚机”
     
  2. API 对请求做一些必要处理后,向 Messaging(RabbitMQ)发送了一条消息:“让 Scheduler 创建一个虚机”
     
  3. Scheduler(nova-scheduler)从 Messaging 获取到 API 发给它的消息,然后执行调度算法,从若干计算节点中选出节点 A
     
  4. Scheduler 向 Messaging 发送了一条消息:“在计算节点 A 上创建这个虚机”
     
  5. 计算节点 A 的 Compute(nova-compute)从 Messaging 中获取到 Scheduler 发给它的消息,然后在本节点的 Hypervisor 上启动虚机。
     
  6. 在虚机创建的过程中,Compute 如果需要查询或更新数据库信息,会通过 Messaging 向 Conductor(nova-conductor)发送消息,Conductor 负责数据库访问。
     
以上是创建虚机最核心的步骤, 这几个步骤向我们展示了 nova-* 子服务之间的协作的方式,也体现了 OpenStack 整个系统的分布式设计思想,掌握这种思想对我们深入理解 OpenStack 会非常有帮助。
 
三、Nova 创建虚拟机详细过程
 
 

1、界面或命令行通过RESTful API向keystone获取认证信息。

2、keystone通过用户请求认证信息,并生成auth-token返回给对应的认证请求。

3、界面或命令行通过RESTful API向nova-api发送一个boot instance的请求(携带auth-token)。

4、nova-api接受请求后向keystone发送认证请求,查看token是否为有效用户和token。

5、keystone验证token是否有效,如有效则返回有效的认证和对应的角色(注:有些操作需要有角色权限才能操作)。

6、通过认证后nova-api和数据库通讯。

7、初始化新建虚拟机的数据库记录。

8、nova-api通过rpc.call向nova-scheduler请求是否有创建虚拟机的资源(Host ID)。

9、nova-scheduler进程侦听消息队列,获取nova-api的请求。

10、nova-scheduler通过查询nova数据库中计算资源的情况,并通过调度算法计算符合虚拟机创建需要的主机。

11、对于有符合虚拟机创建的主机,nova-scheduler更新数据库中虚拟机对应的物理主机信息。

12、nova-scheduler通过rpc.cast向nova-compute发送对应的创建虚拟机请求的消息。

13、nova-compute会从对应的消息队列中获取创建虚拟机请求的消息。

14、nova-compute通过rpc.call向nova-conductor请求获取虚拟机消息。(Flavor)

15、nova-conductor从消息队队列中拿到nova-compute请求消息。

16、nova-conductor根据消息查询虚拟机对应的信息。

17、nova-conductor从数据库中获得虚拟机对应信息。

18、nova-conductor把虚拟机信息通过消息的方式发送到消息队列中。

19、nova-compute从对应的消息队列中获取虚拟机信息消息。

20、nova-compute通过keystone的RESTfull API拿到认证的token,并通过HTTP请求glance-api获取创建虚拟机所需要镜像。

21、glance-api向keystone认证token是否有效,并返回验证结果。

22、token验证通过,nova-compute获得虚拟机镜像信息(URL)。

23、nova-compute通过keystone的RESTfull API拿到认证k的token,并通过HTTP请求neutron-server获取创建虚拟机所需要的网络信息。

24、neutron-server向keystone认证token是否有效,并返回验证结果。

25、token验证通过,nova-compute获得虚拟机网络信息。

26、nova-compute通过keystone的RESTfull API拿到认证的token,并通过HTTP请求cinder-api获取创建虚拟机所需要的持久化存储信息。

27、cinder-api向keystone认证token是否有效,并返回验证结果。

28、token验证通过,nova-compute获得虚拟机持久化存储信息。

29、nova-compute根据instance的信息调用配置的虚拟化驱动来创建虚拟机。

四、彻底删除nova-compute节点

1、控制节点上操作查看计算节点,删除node1

1
2
openstack host list
nova service-list

2、将node1上的计算服务设置为down,然后disabled

1
2
systemctl stop openstack-nova-compute
nova service-list

1
2
nova service-disable node1 nova-compute
nova service-list

3、在数据库里清理(nova库)

(1)参看现在数据库状态

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
[root@node1 ~]# mysql -u root -p
Enter password:
Welcome to the MariaDB monitor.  Commands end with ; or \g.
Your MariaDB connection id is 90
Server version: 10.1.20-MariaDB MariaDB Server
 
Copyright (c) 2000, 2016, Oracle, MariaDB Corporation Ab and others.
 
Type 'help;' or '\h' for help. Type '\c' to clear the current input statement.
 
MariaDB [(none)]> use nova;
Reading table information for completion of table and column names
You can turn off this feature to get a quicker startup with -A
 
Database changed
MariaDB [nova]> select host from nova.services;
+---------+
| host    |
+---------+
| 0.0.0.0 |
| 0.0.0.0 |
| node1   |
| node1   |
| node1   |
| node1   |
| node2   |
+---------+
7 rows in set (0.00 sec)
 
MariaDB [nova]> select hypervisor_hostname from compute_nodes;
+---------------------+
| hypervisor_hostname |
+---------------------+
| node1               |
| node2               |
+---------------------+
2 rows in set (0.00 sec)

 (2)删除数据库中的node1节点信息

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
MariaDB [nova]> delete from nova.services where host="node1";
Query OK, 4 rows affected (0.01 sec)
 
MariaDB [nova]> delete from compute_nodes where hypervisor_hostname="node1";
Query OK, 1 row affected (0.00 sec)
 
MariaDB [nova]>
MariaDB [nova]>
MariaDB [nova]>
MariaDB [nova]> select host from nova.services;
+---------+
| host    |
+---------+
| 0.0.0.0 |
| 0.0.0.0 |
| node2   |
+---------+
3 rows in set (0.00 sec)
 
MariaDB [nova]> select hypervisor_hostname from compute_nodes;
+---------------------+
| hypervisor_hostname |
+---------------------+
| node2               |
+---------------------+
1 row in set (0.00 sec)
 
MariaDB [nova]>
 
五、nova配置文件:
 
[DEFAULT]
my_ip=172.16.254.63
use_neutron = True
firewall_driver = nova.virt.firewall.NoopFirewallDriver
enabled_apis=osapi_compute,metadata
transport_url = rabbit://openstack:admin@controller
 
[api]
auth_strategy = keystone
 
[api_database]
connection = mysql+pymysql://nova:NOVA_DBPASS@controller/nova_api
 
[barbican]
 
[cache]
 
[cells]
 
[cinder]
os_region_name = RegionOne
 
[cloudpipe]
 
[conductor]
 
[console]
 
[consoleauth]
 
[cors]
 
[cors.subdomain]
 
[crypto]
 
[database]
connection = mysql+pymysql://nova:NOVA_DBPASS@controller/nova
 
[ephemeral_storage_encryption]
 
[filter_scheduler]
 
[glance]
api_servers = http://controller:9292
 
[guestfs]
 
[healthcheck]
 
[hyperv]
 
[image_file_url]
 
[ironic]
 
[key_manager]
 
[keystone_authtoken]
auth_uri = http://controller:5000
auth_url = http://controller:35357
memcached_servers = controller:11211
auth_type = password
project_domain_name = default
user_domain_name = default
project_name = service
username = nova
password = nova
 
[libvirt]
virt_type=qemu
 
[matchmaker_redis]
 
[metrics]
 
[mks]
 
[neutron]
url = http://controller:9696
auth_url = http://controller:35357
auth_type = password
project_domain_name = default
user_domain_name = default
region_name = RegionOne
project_name = service
username = neutron
password = neutron
service_metadata_proxy = true
metadata_proxy_shared_secret = METADATA_SECRET
 
[notifications]
 
[osapi_v21]
 
[oslo_concurrency]
lock_path=/var/lib/nova/tmp
 
[oslo_messaging_amqp]
 
[oslo_messaging_kafka]
 
[oslo_messaging_notifications]
 
[oslo_messaging_rabbit]
 
[oslo_messaging_zmq]
 
[oslo_middleware]
 
[oslo_policy]
 
[pci]
[placement]
os_region_name = RegionOne
auth_type = password
auth_url = http://controller:35357/v3
project_name = service
project_domain_name = Default
username = placement
password = placement
user_domain_name = Default
 
[quota]
 
[rdp]
 
[remote_debug]
 
[scheduler]
 
[serial_console]
 
[service_user]
 
[spice]
 
[ssl]
 
[trusted_computing]
 
[upgrade_levels]
 
[vendordata_dynamic_auth]
 
[vmware]
 
[vnc]
enabled=true
vncserver_listen=$my_ip
vncserver_proxyclient_address=$my_ip
novncproxy_base_url = http://172.16.254.63:6080/vnc_auto.html
 
[workarounds]
 
[wsgi]
 
[xenserver]
 
[xvp]

 

nova组件:

1 nova-api

2 nova-scheduler(调度服务)包括过滤器(filter)权重计算(weighting

3 Nova compute nova-compute 是管理虚机的核心服务

4 nova-conductor

 

 

循检准备工作

 

source openrc 开启云计算

 

共享服务循检工作

1 查看数据库

systemctl status mariadb.service

 

2 查看缓存

systemctl status memcache.service

 

3 查看消息队列

systemctl status rabbitmq-server.service

 

4 查看rabbitmq应用服务的状态

rabbitmqctl cluster_status

 

5 查看http

systemctl status httpd

 

6 启动不了,拍错方式error faild

方法1 journalctl -ex

方法2 cd /var/log/httpd/

[root@node1 ~]# cd /var/log/httpd/

[root@node1 httpd]# ls

access_log error_log error_log-20190701 error_log-20190802 keystone.log

access_log-20190622 error_log-20190622 error_log-20190711 keystone_access.lo

 

查看报错日志

vim error_log

/error 进行查询

 

 

7 nova service-list 如果关闭开启

 

 

web界面

 

8 kvm下虚拟机的保存路径

/var/lib/libvirt/images/

 

9 openstack下虚拟机默认保存路径排错用到

/var/lib/nova/installces/

 

Nova list

Nova show Id 查看机器的具体信息

 

kvm命令查看虚拟机

virsh list --all

virsh edit 名称查看

 

 

 

nova(控制节点 node1)部署工作

 

 

 

 

source openrc

 

1 node1 mysql -uroot -p123

 

2 创建三种库

MariaDB [(none)]> CREATE DATABASE nova_api; MariaDB [(none)]> CREATE DATABASE nova; MariaDB [(none)]> CREATE DATABASE nova_cell0;

 

3 3种库创建两种登录方式

MariaDB [(none)]> GRANT ALL PRIVILEGES ON nova_api.* TO 'nova'@'localhost' \ IDENTIFIED BY 'NOVA_DBPASS'; MariaDB [(none)]> GRANT ALL PRIVILEGES ON nova_api.* TO 'nova'@'%' \ IDENTIFIED BY 'NOVA_DBPASS'; MariaDB [(none)]> GRANT ALL PRIVILEGES ON nova.* TO 'nova'@'localhost' \ IDENTIFIED BY 'NOVA_DBPASS'; MariaDB [(none)]> GRANT ALL PRIVILEGES ON nova.* TO 'nova'@'%' \ IDENTIFIED BY 'NOVA_DBPASS'; MariaDB [(none)]> GRANT ALL PRIVILEGES ON nova_cell0.* TO 'nova'@'localhost' \ IDENTIFIED BY 'NOVA_DBPASS'; MariaDB [(none)]> GRANT ALL PRIVILEGES ON nova_cell0.* TO 'nova'@'%' \ IDENTIFIED BY 'NOVA_DBPASS';

 

4 创建一个nova用户密码为 nova default中的域

openstack user create --domin default --password=nova nova

 

5 service的项目里面设置nova的用户 admin的角色

openstack role add --project service --user nova admin

 

6 创建一个nova的计算服务

openstack service create --name nova \

--description "openstack compute" compute

 

检查创建的服务

 

 

 

 

openstack service list

 

7 服务的三种模式的地址发出去宣告端点

 

openstack endpoint create --region RegionOne \ compute public http://node1:8774/v2.1

openstack endpoint create --region RegionOne \ compute internal http://node1:8774/v2.1

openstack endpoint create --region RegionOne \ compute admin http://node1:8774/v2.1

 

openstack endpoint list | grep nova

 

 

8 创建 placement 追踪每个节点的资源使用情况

 

openstack user create --demain default -- password=placement placement (密码账户)

 

openstack role add --project service --user placement admin

 

openstack service create --name lacement --description "placement API" placement

 

9 服务的三种模式的地址发出去宣告端点

 

openstack endpoint create --region RegionOne \ placement public http://node1:8778/v2.1

openstack endpoint create --region RegionOne \ placement internal http://node1:8778/v2.1

openstack endpoint create --region RegionOne \ placement admin http://node1:8778/v2.1

 

 

 

10 node1 节点安装nova 6软件包

 

yum install openstack-nova-api openstack-nova-conductor \ openstack-nova-console openstack-nova-novncproxy \ openstack-nova-scheduler openstack-nova-placement-api

 

 

11 修改配置文件

cd /etc/nova 切换到配置文件

ls

copy nova.conf nova.conf.beifen 进行备份

ll 查看属主属组

 

 

vim nova.conf 之前的内容全部删除

复制本章最下面的配置文件内容 然后修改

 

[DEFAULT] 修改内容

enabled_apis = osapi_compute,metadata

transport_url = rabbit://openstack:RABBIT_PASS@node1

my_ip = 192.168.194.6 当前节点ip use_neutron = True firewall_driver = nova.virt.firewall.NoopFirewallDriver

 

 

 

 

 

 

 

 

 

 

[api_database] 修改内容

connection = mysql+pymysql://nova:NOVA_DBPASS@node1/nova_api

[database] 修改内容 connection = mysql+pymysql://nova:NOVA_DBPASS@node1/nova

 

 

 

 

[api] 修改内容

auth_strategy = keystone

[keystone_authtoken] 修改内容

auth_uri = http://node1:5000 auth_url = http://node1:35357 memcached_servers = node1:11211 auth_type = password project_domain_name = default user_domain_name = default project_name = service username = nova password =nova

 

 

[vnc] 修改内容 enabled = true vncserver_listen = $my_ip vncserver_proxyclient_address = $my_ip

 

 

[glance] 修改内容

api_servers = http://node1:9292

 

 

 

[oslo_concurrency] 修改内容

lock_path = /var/lib/nova/tmp

 

 

[placement] 修改内容

os_region_name = RegionOne project_domain_name = Default project_name = service auth_type = password user_domain_name = Default auth_url = http://node1:35357/v3 username = placement password = placement

 

 

 

12 继续修改配置文件

vim /etc/httpd/conf.d/00-nova-placement-api.conf

添加下面内容到文件最后面

 

<Directory /usr/bin> <IfVersion >= 2.4> Require all granted </IfVersion> <IfVersion < 2.4> Order allow,deny Allow from all </IfVersion> </Directory>

 

 

12 启动http服务

systemctl restart httpd

 

13 倒库

 

su -s /bin/sh -c "nova-manage api_db sync" nova

 

su -s /bin/sh -c "nova-manage cell_v2 map_cell0" nova

 

su -s /bin/sh -c "nova-manage cell_v2 create_cell --name=cell1 --verbose" nova

 

su -s /bin/sh -c "nova-manage db sync" nova

 

14 查看cells列表

nova-manage cell_v2 list_cells

 

 

15 开启nova服务

 

systemctl start openstack-nova-api.service \ openstack-nova-consoleauth.service openstack-nova-scheduler.service \ openstack-nova-conductor.service openstack-nova-novncproxy.service

 

systemctl enable openstack-nova-api.service \ openstack-nova-consoleauth.service openstack-nova-scheduler.service \ openstack-nova-conductor.service openstack-nova-novncproxy.service

 

 

验证服务开启查看状态

systemctl statusopenstack-nova-api.service \ openstack-nova-consoleauth.service openstack-nova-scheduler.service \ openstack-nova-conductor.service openstack-nova-novncproxy.service

 

nova(计算节点 node2)部署工作

 

 

 

 

 

1 检查源

 

2 下载计算节点软件包

yum install openstack-nova-compute -y

 

3 下载失败解决依赖如果正常进入下一步

node1上面执行

cd /openstack-ocata

ls

cirros-0.3.3-x86_64-disk.img openstack-compute-yilai

复制依赖发送node2

scp -r openstack-compute-ylai node2/root/

 

node2上面执行

ls

cd openstack-compute-yilai /

yum localinstall -y ./*

 

下载计算节点

yum install openstack-nova-compute -y

 

4 修改配置文件之前的全部删除

node1有几处不一样的地方修改

复制本章最下面的配置文件内容 然后修改 多余的注释掉

 

[DEFAULT] 修改内容

enabled_apis = osapi_compute,metadata

transport_url = rabbit://openstack:RABBIT_PASS@node1

my_ip = 192.168.194.7 当前节点ip use_neutron = True firewall_driver = nova.virt.firewall.NoopFirewallDriver

 

 

 

 

 

 

 

 

 

[api] 修改内容

auth_strategy = keystone

[keystone_authtoken] 修改内容

auth_uri = http://node1:5000 auth_url = http://node1:35357 memcached_servers = node1:11211 auth_type = password project_domain_name = default user_domain_name = default project_name = service username = nova password =nova

 

 

[vnc] 修改内容 enabled = true vncserver_listen = 0.0.0.0 监听所有 vncserver_proxyclient_address = $my_ip

novncproxy_base_url = http://node1:6080/vnc_auto.html

 

 

[glance] 修改内容

api_servers = http://node1:9292

 

 

 

[oslo_concurrency] 修改内容

lock_path = /var/lib/nova/tmp

 

 

[placement] 修改内容

os_region_name = RegionOne project_domain_name = Default project_name = service auth_type = password user_domain_name = Default auth_url = http://node1:35357/v3 username = placement password = placement

 

[libvirt] 修改内容

virt_type = qemu

 

 

 

查看虚拟端口是否打开

 

egrep -c '(vmx|svm)' /proc/cpuinfo

5 node1控制节点查看nova部署的两种方法

 

nova service-list

 

openstack compute service list

 

6 node2开启compute服务

libvirtd.service 作为kvm的虚拟化服务需要开启

systemctl start libvirtd.service openstack-nova-compute.service

systemctl enable libvirtd.service openstack-nova-compute.service

 

7 node1控制节点查看nova部署

 

openstack compute service list

openstack catalog list

 

 

关闭服务

systemctl stop openstack-nova-compute

 

8 虚拟化管理层显示

openstack hypervisor list

 

把node2的信息写入数据库 否则启动虚拟机 启不了这个节点

su -s /bin/sh -c "nova-manage cell_v2 discover_hosts --verbose" nova openstack image list 镜像列表

 

nova-status upgrade check

 

 

第1台控制节点 第 2 3 台计算节点 设置之前解决依赖

 

posted @ 2019-08-16 13:38  openstack彭  阅读(562)  评论(0编辑  收藏  举报