美文网首页
云计算OpenStack核心组件——Nova计算服务(3)

云计算OpenStack核心组件——Nova计算服务(3)

作者: WickJohn | 来源:发表于2019-07-30 15:06 被阅读0次

    一、nova介绍:

    Nova 是 OpenStack 最核心的服务,负责维护和管理云环境的计算资源。OpenStack 作为 IaaS 的云操作系统,虚拟机生命周期管理也就是通过 Nova 来实现的。

    用途与功能 :

    1. 实例生命周期管理
    2. 管理计算资源
    3. 网络和认证管理
      4)REST 风格的 API
    4. 异步的一致性通信
      6)Hypervisor 透明:支持Xen,XenServer/XCP,KVM, UML, VMware vSphere and Hyper-V
    image.png

    在上图中可以看到,Nova 处于 Openstak 架构的中心,其他组件都为 Nova 提供支持: Glance 为 VM 提供 image Cinder 和 Swift 分别为 VM 提供块存储和对象存储 Neutron 为 VM 提供网络连接。

    Nova 架构如下:

    image.png

    Nova 的架构比较复杂,包含很多组件。 这些组件以子服务(后台 deamon 进程)的形式运行,可以分为以下几类:

    API

    nova-api

    是整个 Nova 组件的门户,接收和响应客户的 API 调用。所有对 Nova 的请求都首先由 nova-api 处理。nova-api 向外界暴露若干 HTTP REST API 接口 在 keystone 中我们可以查询 nova-api 的 endponits。

    image.png

    客户端就可以将请求发送到 endponits 指定的地址,向 nova-api 请求操作。 当然,作为最终用户的我们不会直接发送 Rest AP I请求。 OpenStack CLI,Dashboard 和其他需要跟 Nova 交换的组件会使用这些 API。

    Nova-api 对接收到的 HTTP API 请求会做如下处理:

    1. 检查客户端传入的参数是否合法有效
    2. 调用 Nova 其他子服务的处理客户端 HTTP 请求
    3. 格式化 Nova 其他子服务返回的结果并返回给客户端

    nova-api 接收哪些请求?

    简单的说,只要是跟虚拟机生命周期相关的操作,nova-api 都可以响应。 大部分操作都可以在 Dashboard 上找到。打开Instance管理界面

    image.png

    除了提供 OpenStack 自己的API,nova-api 还支持 Amazon EC2 API。 也就是说,如果客户以前使用 Amazon EC2,并且用 EC2 的 API 开发了些工具来管理虚机,那么如果现在要换成 OpenStack,这些工具可以无缝迁移到 OpenStack,因为 nova-api 兼容 EC2 API,无需做任何修改。

    Compute Core

    a)nova-scheduler:

    虚机调度服务,负责决定在哪个计算节点上运行虚机。创建 Instance 时,用户会提出资源需求,例如 CPU、内存、磁盘各需要多少。OpenStack 将这些需求定义在 flavor 中,用户只需要指定用哪个 flavor 就可以了。

    image.png

    可用的 flavor 在 System->Flavors 中管理。

    image.png

    下面介绍 nova-scheduler 是如何实现调度的。在 /etc/nova/nova.conf 中,nova 通过 driver=filter_scheduler 这个参数来配置 nova-scheduler。

    driver=filter_scheduler

    Filter scheduler

    Filter scheduler 是 nova-scheduler 默认的调度器,调度过程分为两步:

    1. 通过过滤器(filter)选择满足条件的计算节点(运行 nova-compute)
    2. 通过权重计算(weighting)选择在最优(权重值最大)的计算节点上创建 Instance。

    Nova 允许使用第三方 scheduler,配置 scheduler_driver 即可。 这又一次体现了OpenStack的开放性。Scheduler 可以使用多个 filter 依次进行过滤,过滤之后的节点再通过计算权重选出最适合的节点。

    image.png

    上图是调度过程的一个示例:

    1. 最开始有 6 个计算节点 Host1-Host6
    2. 通过多个 filter 层层过滤,Host2 和 Host4 没有通过,被刷掉了
    3. Host1,Host3,Host5,Host6 计算权重,结果 Host5 得分最高,最终入选

    当 Filter scheduler 需要执行调度操作时,会让 filter 对计算节点进行判断,filter 返回 True 或 False。经过前面一堆 filter 的过滤,nova-scheduler 选出了能够部署 instance 的计算节点。

    如果有多个计算节点通过了过滤,那么最终选择哪个节点呢?

    Scheduler 会对每个计算节点打分,得分最高的获胜。 打分的过程就是 weight,翻译过来就是计算权重值,那么 scheduler 是根据什么来计算权重值呢?

    目前 nova-scheduler 的默认实现是根据计算节点空闲的内存量计算权重值: 空闲内存越多,权重越大,instance 将被部署到当前空闲内存最多的计算节点上。

    b)nova-compute:

    nova-compute 是管理虚机的核心服务,在计算节点上运行。通过调用Hypervisor API实现节点上的 instance的生命周期管理。 OpenStack 对 instance 的操作,最后都是交给 nova-compute 来完成的。 nova-compute 与 Hypervisor 一起实现 OpenStack 对 instance 生命周期的管理。

    通过Driver架构支持多种Hypervisor

    Hypervisor是计算节点上跑的虚拟化管理程序,虚机管理最底层的程序。 不同虚拟化技术提供自己的 Hypervisor。 常用的 Hypervisor 有 KVM,Xen, VMWare 等。nova-compute 为这些 Hypervisor 定义了统一的接口,Hypervisor 只需要实现这些接口,就可以 Driver 的形式即插即用到 OpenStack 系统中。 下面是Nova Driver的架构示意图:

    image.png

    c)nova-conductor:

    nova-compute 经常需要更新数据库,比如更新和获取虚机的状态。 出于安全性和伸缩性的考虑,nova-compute 并不会直接访问数据库,而是将这个任务委托给 nova-conductor。

    image.png

    这样做有两个显著好处:

    1. 更高的系统安全性
    2. 更好的系统伸缩性

    Console Interface

    nova-console: 用户可以通过多种方式访问虚机的控制台:
    nova-novncproxy: 基于 Web 浏览器的 VNC 访问
    nova-spicehtml5proxy: 基于 HTML5 浏览器的 SPICE 访问
    nova-xvpnvncproxy: 基于 Java 客户端的 VNC 访问
    nova-consoleauth: 负责对访问虚机控制台请求提供 Token 认证
    nova-cert: 提供 x509 证书支持

    Database

    Nova 会有一些数据需要存放到数据库中,一般使用 MySQL。数据库安装在控制节点上。 Nova 使用命名为 “nova” 的数据库。

    image.png

    Message Queue

    在前面我们了解到 Nova 包含众多的子服务,这些子服务之间需要相互协调和通信。为解耦各个子服务,Nova 通过 Message Queue 作为子服务的信息中转站。 所以在架构图上我们看到了子服务之间没有直接的连线,是通过 Message Queue 联系的。

    image.png

    OpenStack 默认是用 RabbitMQ 作为 Message Queue。 MQ 是 OpenStack 的核心基础组件,我们后面也会详细介绍。

    二、Nova 组件如何协同工作

    Nova 物理部署方案

    前面大家已经看到 Nova 由很多子服务组成,我们也知道 OpenStack 是一个分布式系统,可以部署到若干节点上,那么接下来大家可能就会问:Nova 的这些服务在物理上应该如何部署呢?

    对于 Nova,这些服务会部署在两类节点上:计算节点和控制节点。

    计算节点上安装了 Hypervisor,上面运行虚拟机。 由此可知:

    1. 只有 nova-compute 需要放在计算节点上。
    2. 其他子服务则是放在控制节点上的。

    下面我们可以看看实验环境的具体部署情况。 通过在计算节点和控制节点上运行

    ps -elf | grep nova 来查看运行的 nova 子服务

    计算节点compute只运行了nova-compute子服务

    image.png

    控制节点controller运行了若干nova-*子服务

    image.png

    RabbitMQ 和 MySQL 也是放在控制节点上的。可能细心的同学已经发现我们的控制节点上也运行了 nova-compute。 这实际上也就意味着 devstack-controller 既是一个控制节点,同时也是一个计算节点,也可以在上面运行虚机。

    image.png image.png

    这也向我们展示了 OpenStack 这种分布式架构部署上的灵活性: 可以将所有服务都放在一台物理机上,作为一个 All-in-One 的测试环境; 也可以将服务部署在多台物理机上,获得更好的性能和高可用。

    另外,也可以用 nova service-list 查看 nova-* 子服务都分布在哪些节点上

    image.png

    从虚机创建流程看 nova-* 子服务如何协同工作

    从学习 Nova 的角度看,虚机创建是一个非常好的场景,涉及的 nova-* 子服务很全,下面是流程图。

    image.png
    1. 客户(可以是 OpenStack 最终用户,也可以是其他程序)向 API(nova-api)发送请求:“帮我创建一个虚机”
    2. API 对请求做一些必要处理后,向 Messaging(RabbitMQ)发送了一条消息:“让 Scheduler 创建一个虚机”
    3. Scheduler(nova-scheduler)从 Messaging 获取到 API 发给它的消息,然后执行调度算法,从若干计算节点中选出节点 A
    4. Scheduler 向 Messaging 发送了一条消息:“在计算节点 A 上创建这个虚机”
    5. 计算节点 A 的 Compute(nova-compute)从 Messaging 中获取到 Scheduler 发给它的消息,然后在本节点的 Hypervisor 上启动虚机。
    6. 在虚机创建的过程中,Compute 如果需要查询或更新数据库信息,会通过 Messaging 向 Conductor(nova-conductor)发送消息,Conductor 负责数据库访问。

    以上是创建虚机最核心的步骤, 这几个步骤向我们展示了 nova-* 子服务之间的协作的方式,也体现了 OpenStack 整个系统的分布式设计思想,掌握这种思想对我们深入理解 OpenStack 会非常有帮助。

    三、Nova 创建虚拟机详细过程

    image.png

    1、界面或命令行通过RESTful API向keystone获取认证信息。

    2、keystone通过用户请求认证信息,并生成auth-token返回给对应的认证请求。

    3、界面或命令行通过RESTful API向nova-api发送一个boot instance的请求(携带auth-token)。

    4、nova-api接受请求后向keystone发送认证请求,查看token是否为有效用户和token。

    5、keystone验证token是否有效,如有效则返回有效的认证和对应的角色(注:有些操作需要有角色权限才能操作)。

    6、通过认证后nova-api和数据库通讯。

    7、初始化新建虚拟机的数据库记录。

    8、nova-api通过rpc.call向nova-scheduler请求是否有创建虚拟机的资源(Host ID)。

    9、nova-scheduler进程侦听消息队列,获取nova-api的请求。

    10、nova-scheduler通过查询nova数据库中计算资源的情况,并通过调度算法计算符合虚拟机创建需要的主机。

    11、对于有符合虚拟机创建的主机,nova-scheduler更新数据库中虚拟机对应的物理主机信息。

    12、nova-scheduler通过rpc.cast向nova-compute发送对应的创建虚拟机请求的消息。

    13、nova-compute会从对应的消息队列中获取创建虚拟机请求的消息。

    14、nova-compute通过rpc.call向nova-conductor请求获取虚拟机消息。(Flavor)

    15、nova-conductor从消息队队列中拿到nova-compute请求消息。

    16、nova-conductor根据消息查询虚拟机对应的信息。

    17、nova-conductor从数据库中获得虚拟机对应信息。

    18、nova-conductor把虚拟机信息通过消息的方式发送到消息队列中。

    19、nova-compute从对应的消息队列中获取虚拟机信息消息。

    20、nova-compute通过keystone的RESTfull API拿到认证的token,并通过HTTP请求glance-api获取创建虚拟机所需要镜像。

    21、glance-api向keystone认证token是否有效,并返回验证结果。

    22、token验证通过,nova-compute获得虚拟机镜像信息(URL)。

    23、nova-compute通过keystone的RESTfull API拿到认证k的token,并通过HTTP请求neutron-server获取创建虚拟机所需要的网络信息。

    24、neutron-server向keystone认证token是否有效,并返回验证结果。

    25、token验证通过,nova-compute获得虚拟机网络信息。

    26、nova-compute通过keystone的RESTfull API拿到认证的token,并通过HTTP请求cinder-api获取创建虚拟机所需要的持久化存储信息。

    27、cinder-api向keystone认证token是否有效,并返回验证结果。

    28、token验证通过,nova-compute获得虚拟机持久化存储信息。

    29、nova-compute根据instance的信息调用配置的虚拟化驱动来创建虚拟机。

    四、彻底删除nova-compute节点

    1、控制节点上操作查看计算节点,删除node1

    openstack host list
    nova service-list

    image

    2、将node1上的计算服务设置为down,然后disabled

    systemctl stop openstack-nova-compute
    nova service-list

    image

    nova service-disable node1 nova-compute
    nova service-list

    image

    3、在数据库里清理(nova库)

    (1)参看现在数据库状态

    [root@node1 ~]# mysql -u root -p
    Enter password:
    Welcome to the MariaDB monitor.  Commands end with ; or \g.
    Your MariaDB connection id is 90
    Server version: 10.1.20-MariaDB MariaDB Server
     
    Copyright (c) 2000, 2016, Oracle, MariaDB Corporation Ab and others.
     
    Type 'help;' or '\h' for help. Type '\c' to clear the current input statement.
     
    MariaDB [(none)]> use nova;
    Reading table information for completion of table and column names
    You can turn off this feature to get a quicker startup with -A
     
    Database changed
    MariaDB [nova]> select host from nova.services;
    +---------+
    | host    |
    +---------+
    | 0.0.0.0 |
    | 0.0.0.0 |
    | node1   |
    | node1   |
    | node1   |
    | node1   |
    | node2   |
    +---------+
    7 rows in set (0.00 sec)
     
    MariaDB [nova]> select hypervisor_hostname from compute_nodes;
    +---------------------+
    | hypervisor_hostname |
    +---------------------+
    | node1               |
    | node2               |
    +---------------------+
    2 rows in set (0.00 sec)
    

    (2)删除数据库中的node1节点信息

    MariaDB [nova]> delete from nova.services where host="node1";
    Query OK, 4 rows affected (0.01 sec)
     
    MariaDB [nova]> delete from compute_nodes where hypervisor_hostname="node1";
    Query OK, 1 row affected (0.00 sec)
     
    MariaDB [nova]>
    MariaDB [nova]>
    MariaDB [nova]>
    MariaDB [nova]> select host from nova.services;
    +---------+
    | host    |
    +---------+
    | 0.0.0.0 |
    | 0.0.0.0 |
    | node2   |
    +---------+
    3 rows in set (0.00 sec)
     
    MariaDB [nova]> select hypervisor_hostname from compute_nodes;
    +---------------------+
    | hypervisor_hostname |
    +---------------------+
    | node2               |
    +---------------------+
    1 row in set (0.00 sec)
     
    MariaDB [nova]>
    

    nova主控制端的配置流程

    1、数据库的用户创建

    MariaDB [(none)]> CREATE DATABASE nova_api;
    MariaDB [(none)]> CREATE DATABASE nova;
    MariaDB [(none)]> CREATE DATABASE nova_cell0;
    
    #权限设置
    MariaDB [(none)]> GRANT ALL PRIVILEGES ON nova_api.* TO 'nova'@'localhost' \
      IDENTIFIED BY 'NOVA_DBPASS';
    MariaDB [(none)]> GRANT ALL PRIVILEGES ON nova_api.* TO 'nova'@'%' \
      IDENTIFIED BY 'NOVA_DBPASS';
    
    MariaDB [(none)]> GRANT ALL PRIVILEGES ON nova.* TO 'nova'@'localhost' \
      IDENTIFIED BY 'NOVA_DBPASS';
    MariaDB [(none)]> GRANT ALL PRIVILEGES ON nova.* TO 'nova'@'%' \
      IDENTIFIED BY 'NOVA_DBPASS';
    
    MariaDB [(none)]> GRANT ALL PRIVILEGES ON nova_cell0.* TO 'nova'@'localhost' \
      IDENTIFIED BY 'NOVA_DBPASS';
    MariaDB [(none)]> GRANT ALL PRIVILEGES ON nova_cell0.* TO 'nova'@'%' \
      IDENTIFIED BY 'NOVA_DBPASS';
    

    2、创建OpenStack用户和服务项目
    创建Nova用户:

    $ openstack user create --domain default --password-prompt nova
    
    User Password:
    Repeat User Password:
    +---------------------+----------------------------------+
    | Field               | Value                            |
    +---------------------+----------------------------------+
    | domain_id           | default                          |
    | enabled             | True                             |
    | id                  | 8a7dbf5279404537b1c7b86c033620fe |
    | name                | nova                             |
    | options             | {}                               |
    | password_expires_at | None                             |
    +---------------------+----------------------------------+
    

    用户加入到项目角色里:

    $ openstack role add --project service --user nova admin
    

    创建Nova服务:

    $ openstack service create --name nova \
      --description "OpenStack Compute" compute
    
    +-------------+----------------------------------+
    | Field       | Value                            |
    +-------------+----------------------------------+
    | description | OpenStack Compute                |
    | enabled     | True                             |
    | id          | 060d59eac51b4594815603d75a00aba2 |
    | name        | nova                             |
    | type        | compute                          |
    +-------------+----------------------------------+
    

    创建compute API 服务端口地址:

    $ openstack endpoint create --region RegionOne \
      compute public http://controller:8774/v2.1
    
    +--------------+-------------------------------------------+
    | Field        | Value                                     |
    +--------------+-------------------------------------------+
    | enabled      | True                                      |
    | id           | 3c1caa473bfe4390a11e7177894bcc7b          |
    | interface    | public                                    |
    | region       | RegionOne                                 |
    | region_id    | RegionOne                                 |
    | service_id   | 060d59eac51b4594815603d75a00aba2          |
    | service_name | nova                                      |
    | service_type | compute                                   |
    | url          | http://controller:8774/v2.1               |
    +--------------+-------------------------------------------+
    
    $ openstack endpoint create --region RegionOne \
      compute internal http://controller:8774/v2.1
    
    +--------------+-------------------------------------------+
    | Field        | Value                                     |
    +--------------+-------------------------------------------+
    | enabled      | True                                      |
    | id           | e3c918de680746a586eac1f2d9bc10ab          |
    | interface    | internal                                  |
    | region       | RegionOne                                 |
    | region_id    | RegionOne                                 |
    | service_id   | 060d59eac51b4594815603d75a00aba2          |
    | service_name | nova                                      |
    | service_type | compute                                   |
    | url          | http://controller:8774/v2.1               |
    +--------------+-------------------------------------------+
    
    $ openstack endpoint create --region RegionOne \
      compute admin http://controller:8774/v2.1
    
    +--------------+-------------------------------------------+
    | Field        | Value                                     |
    +--------------+-------------------------------------------+
    | enabled      | True                                      |
    | id           | 38f7af91666a47cfb97b4dc790b94424          |
    | interface    | admin                                     |
    | region       | RegionOne                                 |
    | region_id    | RegionOne                                 |
    | service_id   | 060d59eac51b4594815603d75a00aba2          |
    | service_name | nova                                      |
    | service_type | compute                                   |
    | url          | http://controller:8774/v2.1               |
    +--------------+-------------------------------------------+
    

    创建placement用户:

    $ openstack user create --domain default --password-prompt placement
    
    User Password:
    Repeat User Password:
    +---------------------+----------------------------------+
    | Field               | Value                            |
    +---------------------+----------------------------------+
    | domain_id           | default                          |
    | enabled             | True                             |
    | id                  | fa742015a6494a949f67629884fc7ec8 |
    | name                | placement                        |
    | options             | {}                               |
    | password_expires_at | None                             |
    +---------------------+----------------------------------+
    

    将placement加入到服务项目的角色里:

    $ openstack role add --project service --user placement admin
    

    创建placement API服务:

    $ openstack service create --name placement --description "Placement API" placement
    +-------------+----------------------------------+
    | Field       | Value                            |
    +-------------+----------------------------------+
    | description | Placement API                    |
    | enabled     | True                             |
    | id          | 2d1a27022e6e4185b86adac4444c495f |
    | name        | placement                        |
    | type        | placement                        |
    +-------------+----------------------------------+
    

    创建placement API 服务的端口地址:

    $ openstack endpoint create --region RegionOne placement public http://controller:8778
    +--------------+----------------------------------+
    | Field        | Value                            |
    +--------------+----------------------------------+
    | enabled      | True                             |
    | id           | 2b1b2637908b4137a9c2e0470487cbc0 |
    | interface    | public                           |
    | region       | RegionOne                        |
    | region_id    | RegionOne                        |
    | service_id   | 2d1a27022e6e4185b86adac4444c495f |
    | service_name | placement                        |
    | service_type | placement                        |
    | url          | http://controller:8778           |
    +--------------+----------------------------------+
    
    $ openstack endpoint create --region RegionOne placement internal http://controller:8778
    +--------------+----------------------------------+
    | Field        | Value                            |
    +--------------+----------------------------------+
    | enabled      | True                             |
    | id           | 02bcda9a150a4bd7993ff4879df971ab |
    | interface    | internal                         |
    | region       | RegionOne                        |
    | region_id    | RegionOne                        |
    | service_id   | 2d1a27022e6e4185b86adac4444c495f |
    | service_name | placement                        |
    | service_type | placement                        |
    | url          | http://controller:8778           |
    +--------------+----------------------------------+
    
    $ openstack endpoint create --region RegionOne placement admin http://controller:8778
    +--------------+----------------------------------+
    | Field        | Value                            |
    +--------------+----------------------------------+
    | enabled      | True                             |
    | id           | 3d71177b9e0f406f98cbff198d74b182 |
    | interface    | admin                            |
    | region       | RegionOne                        |
    | region_id    | RegionOne                        |
    | service_id   | 2d1a27022e6e4185b86adac4444c495f |
    | service_name | placement                        |
    | service_type | placement                        |
    | url          | http://controller:8778           |
    +--------------+----------------------------------+
    

    3、下载主控制程序数据包

    # yum install openstack-nova-api openstack-nova-conductor \
      openstack-nova-console openstack-nova-novncproxy \
      openstack-nova-scheduler openstack-nova-placement-api
    

    4、编辑配置文件
    vim /etc/nova/nova.conf

     [DEFAULT]
    
    my_ip=172.16.254.63   #本机的ip地址
    
    use_neutron = True
    
    firewall_driver = nova.virt.firewall.NoopFirewallDriver  #防火墙驱动程序
    
    enabled_apis=osapi_compute,metadata 
    
    transport_url = [rabbit://openstack:admin@controller](rabbit://openstack:admin@controller/)  #rabbit的OpenStack用户的地址和密码
    
    [api]
    
    auth_strategy = keystone
    
    [api_database]
    数据库的连接地址用户名和密码:
    connection = mysql+[pymysql://nova:NOVA_DBPASS@controller/nova_api](pymysql://nova:NOVA_DBPASS@controller/nova_api)
    
    [barbican]
    
    [cache]
    
    [cells]
    
    [cinder]
    
    #os_region_name = RegionOne  #先不用
    
    [cloudpipe]
    
    [conductor]
    
    [console]
    
    [consoleauth]
    
    [cors]
    
    [cors.subdomain]
    
    [crypto]
    
    [database]
    Nova用户访问数据库的连接地址:
    connection = mysql+[pymysql://nova:NOVA_DBPASS@controller/nova](pymysql://nova:NOVA_DBPASS@controller/nova)
    
    [ephemeral_storage_encryption]
    
    [filter_scheduler]
    
    [glance]
    api服务的地址
    api_servers = [http://controller:9292](http://controller:9292/)
    
    [guestfs]
    
    [healthcheck]
    
    [hyperv]
    
    [image_file_url]
    
    [ironic]
    
    [key_manager]
    
    [keystone_authtoken]
    
    auth_uri = [http://controller:5000](http://controller:5000/) #内外服务地址
    
    auth_url = [http://controller:35357](http://controller:35357/)#管理服务地址
    
    memcached_servers = controller:11211 #缓存服务地址
    
    auth_type = password
    
    project_domain_name = default
    
    user_domain_name = default
    
    project_name = service
    
    username = nova
    
    password = nova
    
    [libvirt]
    
    virt_type=qemu
    
    [matchmaker_redis]
    
    [metrics]
    
    [mks]
    
    [neutron] #先不用
    
    url = [http://controller:9696](http://controller:9696/)
    
    auth_url = [http://controller:35357](http://controller:35357/)
    
    auth_type = password
    
    project_domain_name = default
    
    user_domain_name = default
    
    region_name = RegionOne
    
    project_name = service
    
    username = neutron
    
    password = neutron
    
    service_metadata_proxy = true
    
    metadata_proxy_shared_secret = METADATA_SECRET
    
    [notifications]
    
    [osapi_v21]
    
    [oslo_concurrency]
    
    lock_path=/var/lib/nova/tmp
    
    [oslo_messaging_amqp]
    
    [oslo_messaging_kafka]
    
    [oslo_messaging_notifications]
    
    [oslo_messaging_rabbit]
    
    [oslo_messaging_zmq]
    
    [oslo_middleware]
    
    [oslo_policy]
    
    [pci]
    
    [placement]
    
    os_region_name = RegionOne
    
    auth_type = password
    
    auth_url = [http://controller:35357/v3](http://controller:35357/v3)
    
    project_name = service
    
    project_domain_name = Default
    
    username = placement
    
    password = placement
    
    user_domain_name = Default
    
    [quota]
    
    [rdp]
    
    [remote_debug]
    
    [scheduler]
    
    [serial_console]
    
    [service_user]
    
    [spice]
    
    [ssl]
    
    [trusted_computing]
    
    [upgrade_levels]
    
    [vendordata_dynamic_auth]
    
    [vmware]
    
    [vnc]
    
    enabled=true #开启vnc
    
    vncserver_listen=$my_ip #本机ip
    
    vncserver_proxyclient_address=$my_ip #本机ip
    
    novncproxy_base_url = [http://172.16.254.63:6080/vnc_auto.html](http://172.16.254.63:6080/vnc_auto.html)
    
    [workarounds]
    
    [wsgi]
    
    [xenserver]
    
    [xvp]
    

    5、编辑配置文件
    vim /etc/httpd/conf.d/00-nova-placement-api.conf
    添加以下文件

    <Directory /usr/bin>
       <IfVersion >= 2.4>
          Require all granted
       </IfVersion>
       <IfVersion < 2.4>
          Order allow,deny
          Allow from all
       </IfVersion>
    </Directory>
    

    6、重启httpd

    systemctl restart httpd
    

    7、同步api数据库

    # su -s /bin/sh -c "nova-manage api_db sync" nova
    

    8、注册cell0数据库

    # su -s /bin/sh -c "nova-manage cell_v2 map_cell0" nova
    

    9、创建cell1

    # su -s /bin/sh -c "nova-manage cell_v2 create_cell --name=cell1 --verbose" nova
    109e1d4b-536a-40d0-83c6-5f121b82b650
    

    10、导入Nova表

    # su -s /bin/sh -c "nova-manage db sync" nova
    

    11、查看cell1和cell0

    # nova-manage cell_v2 list_cells
    +-------+--------------------------------------+
    | Name  | UUID                                 |
    +-------+--------------------------------------+
    | cell1 | 109e1d4b-536a-40d0-83c6-5f121b82b650 |
    | cell0 | 00000000-0000-0000-0000-000000000000 |
    +-------+--------------------------------------+
    

    12、重启和开机自启

    # systemctl enable openstack-nova-api.service \
      openstack-nova-consoleauth.service openstack-nova-scheduler.service \
      openstack-nova-conductor.service openstack-nova-novncproxy.service
    # systemctl start openstack-nova-api.service \
      openstack-nova-consoleauth.service openstack-nova-scheduler.service \
      openstack-nova-conductor.service openstack-nova-novncproxy.service
    

    13、检查服务状态

    [root@node1 ~]# openstack compute service list
    +----+------------------+-------+----------+---------+-------+----------------------------+
    | ID | Binary           | Host  | Zone     | Status  | State | Updated At                 |
    +----+------------------+-------+----------+---------+-------+----------------------------+
    |  1 | nova-conductor   | node1 | internal | enabled | up    | 2019-07-31T10:31:47.000000 |
    |  2 | nova-consoleauth | node1 | internal | enabled | up    | 2019-07-31T10:31:39.000000 |
    |  3 | nova-scheduler   | node1 | internal | enabled | up    | 2019-07-31T10:31:48.000000 |
    |  6 | nova-compute     | node2 | nova     | enabled | up    | 2019-07-31T10:31:46.000000 |
    |  7 | nova-compute     | node3 | nova     | enabled | up    | 2019-07-31T10:31:45.000000 |
    |  8 | nova-compute     | node1 | nova     | enabled | up    | 2019-07-31T10:31:47.000000 |
    +----+------------------+-------+----------+---------+-------+----------------------------+
    [root@node1 ~]# 
    

    nova-compute 服务配置

    一、数据包安装

    # yum install openstack-nova-compute -y 
    

    二、配置文件修改

     [DEFAULT]
    
    my_ip=172.16.254.63 #本机地址
    
    use_neutron = True
    
    firewall_driver = nova.virt.firewall.NoopFirewallDriver
    
    enabled_apis=osapi_compute,metadata 
    
    transport_url = [rabbit://openstack:admin@controller](rabbit://openstack:admin@controller/) #控制端ip
    
    [api]
    
    auth_strategy = keystone
    
    [api_database] 
    不需要配置
    connection = mysql+[pymysql://nova:NOVA_DBPASS@controller/nova_api](pymysql://nova:NOVA_DBPASS@controller/nova_api)
    
    [barbican]
    
    [cache]
    
    [cells]
    
    [cinder]
    不需要配置
    os_region_name = RegionOne
    
    [cloudpipe]
    
    [conductor]
    
    [console]
    
    [consoleauth]
    
    [cors]
    
    [cors.subdomain]
    
    [crypto]
    
    [database]
    不需要配置
    connection = mysql+[pymysql://nova:NOVA_DBPASS@controller/nova](pymysql://nova:NOVA_DBPASS@controller/nova)
    
    [ephemeral_storage_encryption]
    
    [filter_scheduler]
    
    [glance]
    主机端ip
    api_servers = [http://controller:9292](http://controller:9292/)
    
    [guestfs]
    
    [healthcheck]
    
    [hyperv]
    
    [image_file_url]
    
    [ironic]
    
    [key_manager]
    
    [keystone_authtoken]
    主机端ip地址以及相应服务的配置端口
    auth_uri = [http://controller:5000](http://controller:5000/)
    
    auth_url = [http://controller:35357](http://controller:35357/)
    
    memcached_servers = controller:11211
    
    auth_type = password
    
    project_domain_name = default
    
    user_domain_name = default
    
    project_name = service
    
    username = nova
    
    password = nova
    
    [libvirt]
    虚拟类型
    virt_type=qemu
    
    [matchmaker_redis]
    
    [metrics]
    
    [mks]
    
    [neutron]
    不需要配置
    url = [http://controller:9696](http://controller:9696/)
    
    auth_url = [http://controller:35357](http://controller:35357/)
    
    auth_type = password
    
    project_domain_name = default
    
    user_domain_name = default
    
    region_name = RegionOne
    
    project_name = service
    
    username = neutron
    
    password = neutron
    
    service_metadata_proxy = true
    
    metadata_proxy_shared_secret = METADATA_SECRET
    
    [notifications]
    
    [osapi_v21]
    
    [oslo_concurrency]
    
    lock_path=/var/lib/nova/tmp
    
    [oslo_messaging_amqp]
    
    [oslo_messaging_kafka]
    
    [oslo_messaging_notifications]
    
    [oslo_messaging_rabbit]
    
    [oslo_messaging_zmq]
    
    [oslo_middleware]
    
    [oslo_policy]
    
    [pci]
    
    [placement]
    
    os_region_name = RegionOne
    
    auth_type = password
    主机端ip
    auth_url = [http://controller:35357/v3](http://controller:35357/v3)
    
    project_name = service
    
    project_domain_name = Default
    
    username = placement
    
    password = placement
    
    user_domain_name = Default
    
    [quota]
    
    [rdp]
    
    [remote_debug]
    
    [scheduler]
    discover_hosts_in_cells_interval = 20 #自动发现计算节点的刷新时间
    
    [serial_console]
    
    [service_user]
    
    [spice]
    
    [ssl]
    
    [trusted_computing]
    
    [upgrade_levels]
    
    [vendordata_dynamic_auth]
    
    [vmware]
    
    [vnc]
    开启vnc
    enabled=true
    
    vncserver_listen=$my_ip #改为0.0.0.0
    
    vncserver_proxyclient_address=$my_ip
    
    novncproxy_base_url = [http://172.16.254.63:6080/vnc_auto.html](http://172.16.254.63:6080/vnc_auto.html) #不需要
    
    [workarounds]
    
    [wsgi]
    
    [xenserver]
    
    [xvp]
    

    1、kvm虚拟服务的设置

    $ egrep -c '(vmx|svm)' /proc/cpuinfo
    

    非零数字即可是实现虚拟配置

    2、重启和开机自启libvirtd和compute程序

    # systemctl enable libvirtd.service openstack-nova-compute.service
    # systemctl start libvirtd.service openstack-nova-compute.service
    

    3、检查计算节点的状态

    $ . admin-openrc
    
    $ openstack hypervisor list
    +----+---------------------+-----------------+-----------+-------+
    | ID | Hypervisor Hostname | Hypervisor Type | Host IP   | State |
    +----+---------------------+-----------------+-----------+-------+
    |  1 | compute1            | QEMU            | 10.0.0.31 | up    |
    +----+---------------------+-----------------+-----------+-------+
    

    4、发现计算终端的设置,以开启使用

    # su -s /bin/sh -c "nova-manage cell_v2 discover_hosts --verbose" nova
    
    Found 2 cell mappings.
    Skipping cell0 since it does not contain hosts.
    Getting compute nodes from cell 'cell1': ad5a5985-a719-4567-98d8-8d148aaae4bc
    Found 1 computes in cell: ad5a5985-a719-4567-98d8-8d148aaae4bc
    Checking host mapping for compute host 'compute': fe58ddc1-1d65-4f87-9456-bc040dc106b3
    Creating host mapping for compute host 'compute': fe58ddc1-1d65-4f87-9456-bc040dc106b3
    

    5、计算端的服务展示

    $ openstack compute service list
    
    +----+--------------------+------------+----------+---------+-------+----------------------------+
    | Id | Binary             | Host       | Zone     | Status  | State | Updated At                 |
    +----+--------------------+------------+----------+---------+-------+----------------------------+
    |  1 | nova-consoleauth   | controller | internal | enabled | up    | 2016-02-09T23:11:15.000000 |
    |  2 | nova-scheduler     | controller | internal | enabled | up    | 2016-02-09T23:11:15.000000 |
    |  3 | nova-conductor     | controller | internal | enabled | up    | 2016-02-09T23:11:16.000000 |
    |  4 | nova-compute       | compute1   | nova     | enabled | up    | 2016-02-09T23:11:20.000000 |
    +----+--------------------+------------+----------+---------+-------+----------------------------+
    

    6、服务节点的展示

    $ openstack catalog list
    
    +-----------+-----------+-----------------------------------------+
    | Name      | Type      | Endpoints                               |
    +-----------+-----------+-----------------------------------------+
    | keystone  | identity  | RegionOne                               |
    |           |           |   public: http://controller:5000/v3/    |
    |           |           | RegionOne                               |
    |           |           |   internal: http://controller:5000/v3/  |
    |           |           | RegionOne                               |
    |           |           |   admin: http://controller:35357/v3/    |
    |           |           |                                         |
    | glance    | image     | RegionOne                               |
    |           |           |   admin: http://controller:9292         |
    |           |           | RegionOne                               |
    |           |           |   public: http://controller:9292        |
    |           |           | RegionOne                               |
    |           |           |   internal: http://controller:9292      |
    |           |           |                                         |
    | nova      | compute   | RegionOne                               |
    |           |           |   admin: http://controller:8774/v2.1    |
    |           |           | RegionOne                               |
    |           |           |   internal: http://controller:8774/v2.1 |
    |           |           | RegionOne                               |
    |           |           |   public: http://controller:8774/v2.1   |
    |           |           |                                         |
    | placement | placement | RegionOne                               |
    |           |           |   public: http://controller:8778        |
    |           |           | RegionOne                               |
    |           |           |   admin: http://controller:8778         |
    |           |           | RegionOne                               |
    |           |           |   internal: http://controller:8778      |
    |           |           |                                         |
    +-----------+-----------+-----------------------------------------+
    

    7、镜像列表

    $ openstack image list
    
    +--------------------------------------+-------------+-------------+
    | ID                                   | Name        | Status      |
    +--------------------------------------+-------------+-------------+
    | 9a76d9f9-9620-4f2e-8c69-6c5691fae163 | cirros      | active      |
    +--------------------------------------+-------------+-------------+
    

    8、检测cell和placement的服务是否正常使用

    # nova-status upgrade check
    
    +---------------------------+
    | Upgrade Check Results     |
    +---------------------------+
    | Check: Cells v2           |
    | Result: Success           |
    | Details: None             |
    +---------------------------+
    | Check: Placement API      |
    | Result: Success           |
    | Details: None             |
    +---------------------------+
    | Check: Resource Providers |
    | Result: Success           |
    | Details: None             |
    +---------------------------+
    

    相关文章

      网友评论

          本文标题:云计算OpenStack核心组件——Nova计算服务(3)

          本文链接:https://www.haomeiwen.com/subject/kxlnrctx.html