美文网首页
openstack 配置ceph

openstack 配置ceph

作者: CC_06fa | 来源:发表于2018-10-23 16:27 被阅读38次

    准备工作

    在配置openstack 之前,需要将使用ceph的节点设置为ceph 客户端

    1. 修改改客户端的/etc/hosts,/etc/hostname两个文件

    2. 将部署机的公钥发送到客户端

    ssh-copy-id {userame}@node1
    
    1. 修改部署机的~/.ssh/config 文件,指定链接的用户

    2. 首先更新客户端的yum源,使客户端可以安装ceph

    3. 在部署机(10.19.19.1)上执行下列命令:

    在/my_cluster/目录下执行

    ceph-deploy install client.{客户端名字}
    ceph-deploy admin client.{客户端名字}
    

    (安装地址)[http://docs.ceph.com/docs/master/rbd/rbd-openstack/]
    (官方中文文档)[http://docs.ceph.org.cn/rbd/rbd-openstack/]

    CREATE A POOL

    默认情况下,Ceph块设备使用rbd池。您可以使用任何可用的池。我们建议创建一个用于Cinder的池和一个用于Glanc的池。确保Ceph集群正在运行,然后创建池。

    ceph osd pool create volumes 128
    ceph osd pool create images 128
    ceph osd pool create backups 128
    ceph osd pool create vms 128
    

    新创建的池必须在使用之前进行初始化。使用rbd工具初始化池

    rbd pool init volumes
    rbd pool init images
    rbd pool init backups
    rbd pool init vms
    

    CONFIGURE OPENSTACK CEPH CLIENTS

    运行glous -api、cinders -volume、nova-compute和cinbackup备份的节点充当Ceph客户机。每个都需要ceph配置文件:

    ssh {your-openstack-server} sudo tee /etc/ceph/ceph.conf </etc/ceph/ceph.conf
    

    INSTALL CEPH CLIENT PACKAGES

    在glance-api 节点,需要为librbd安装 Python bindings

    sudo yum install python-rbd
    

    在 nova-compute, cinder-backup 及 cinder-volume 节点, use both the Python bindings and the client command line tools:

    sudo yum install ceph-common
    

    SETUP CEPH CLIENT AUTHENTICATION
    添加认证信息

    1. 创建新的用户
    • 监视器能力: 监视器能力包括 r 、 w 、 x 和 allow profile {cap} ,例如
    • OSD 能力: OSD 能力包括 r 、 w 、 x 、 class-read 、 class-write 和 profile osd 。另外, OSD 能力还支持存储池和命名空间的配置。

    创建client.glance用户

    ceph auth get-or-create client.glance mon 'profile rbd' osd 'profile rbd pool=images'
    

    创建client.cinder用户

    ceph auth get-or-create client.cinder mon 'profile rbd' osd 'profile rbd pool=volumes, profile rbd pool=vms, profile rbd-read-only pool=images'
    

    创建client.cinder-backup用户

    ceph auth get-or-create client.cinder-backup mon 'profile rbd' osd 'profile rbd pool=backups'
    
    
    1. 添加key

    为glance 添加key

    ceph auth get-or-create client.glance | ssh {your-glance-api-server} sudo tee /etc/ceph/ceph.client.glance.keyring
    
    ssh {your-glance-api-server} sudo chown glance:glance /etc/ceph/ceph.client.glance.keyring
    

    在192.168.125.125机器上执行如下
    ceph auth get-or-create client.glance | ssh 192.168.125.125 sudo tee /etc/ceph/ceph.client.glance.keyring
    ssh 192.168.125.125 sudo chown glance:glance /etc/ceph/ceph.client.glance.keyring

    为cinder添加key

    ceph auth get-or-create client.cinder | ssh {your-volume-server} sudo tee /etc/ceph/ceph.client.cinder.keyring
    
    ssh {your-cinder-volume-server} sudo chown cinder:cinder /etc/ceph/ceph.client.cinder.keyring
    

    为cinder-backup添加key

    ceph auth get-or-create client.cinder-backup | ssh {your-cinder-backup-server} sudo tee /etc/ceph/ceph.client.cinder-backup.keyring
    
    ssh {your-cinder-backup-server} sudo chown cinder:cinder /etc/ceph/ceph.client.cinder-backup.keyring
    

    运行 nova-compute的节点需要keyring文件

    ceph auth get-or-create client.cinder | ssh {your-nova-compute-server} sudo tee /etc/ceph/ceph.client.cinder.keyring
    

    还需要存储 client.cinder 的秘密密钥在libvirt中。libvirt进程需要它访问集群,同时从Cinder附加块设备。
    在运行nova-compute的节点上创建密钥的临时副本:

    ceph auth get-key client.cinder | ssh {your-compute-node} tee client.cinder.key
    
    

    然后,在计算节点上,向libvirt添加密钥,并删除密钥的临时副本:

    uuidgen
    9191d801-4d57-476e-acfb-84bf55d0bd54
    
    cat > secret.xml <<EOF
    <secret ephemeral='no' private='no'>
      <uuid>9191d801-4d57-476e-acfb-84bf55d0bd54</uuid>
      <usage type='ceph'>
        <name>client.cinder secret</name>
      </usage>
    </secret>
    EOF
    
    sudo virsh secret-define --file secret.xml
    Secret 9191d801-4d57-476e-acfb-84bf55d0bd54 created
    
    sudo virsh secret-set-value --secret 9191d801-4d57-476e-acfb-84bf55d0bd54 --base64 $(cat client.cinder.key)&&rm client.cinder.key secret.xml
    

    稍后保存秘密的uuid,以便配置nova-compute。


    CONFIGURE OPENSTACK TO USE CEPH

    配置GLANCE

    Glance可以使用多个后端来存储镜像。要默认使用Ceph块设备,请像下面这样配置Glance。
    KILO 及之后版本

    编辑 /etc/glance/glance-api.conf文件

    [glance_store]
    stores = rbd
    default_store = rbd
    rbd_store_pool = images
    rbd_store_user = glance
    rbd_store_ceph_conf = /etc/ceph/ceph.conf
    rbd_store_chunk_size = 8
    
    

    ENABLE COPY-ON-WRITE CLONING OF IMAGES(开启)
    注意,这将通过Glance的API公开后端位置,因此启用此选项的端点不应公开访问。
    如果你想允许使用 image 的写时复制克隆,MITAKA 之外的版本。还可以在[DEFAULT]部分下添加:

    [DEFAULT]
    show_image_direct_url = True
    

    DISABLE CACHE MANAGEMENT

    关闭 the Glance cache management 以防止镜像cached 在 /var/lib/glance/image-cache/, 假设您的配置文件flavor = keystone+cachemanagement:

    [paste_deploy]
    flavor = keystone
    

    IMAGE PROPERTIES

    建议使用如下设置

    增加virtio-scsi控制器,获得更好的性能和对丢弃操作的支持

    hw_scsi_model=virtio-scsi
    

    链接控制节点的每一个cinder block devices

    hw_disk_bus=scsi
    

    开启QEMU guest agent

    hw_qemu_guest_agent=yes
    

    通过QEMU客户代理发送fs-freeze/thaw调用

    os_require_quiesce=yes
    

    重启glance

    systemctl restart openstack-glance-api
    

    验证

     rados -p images ls
    

    配置 CINDER

    OpenStack需要驱动程序与Ceph块设备进行交互。还必须为块设备指定池名。
    在OpenStack 节点上, 编辑文件 /etc/cinder/cinder.conf 并添加一下内容

    [DEFAULT]
    ...
    enabled_backends = ceph
    glance_api_version = 2
    ...
    [ceph]
    volume_driver = cinder.volume.drivers.rbd.RBDDriver
    volume_backend_name = ceph
    rbd_pool = volumes
    rbd_ceph_conf = /etc/ceph/ceph.conf
    rbd_flatten_volume_from_snapshot = false
    rbd_max_clone_depth = 5
    rbd_store_chunk_size = 4
    rados_connect_timeout = -1
    

    如果添加了身份认证,

    rbd_user = cinder
    rbd_secret_uuid = 9191d801-4d57-476e-acfb-84bf55d0bd54
    

    配置 NOVA

    为了将所有虚拟机直接引导到Ceph,必须配置Nova的临时后端。建议在Ceph配置文件中启用RBD缓存(默认情况下启用,因为是Giant)。此外,启用管理套接字在进行故障排除时带来了很多好处。使用Ceph块设备让每个虚拟机有一个套接字将有助于调查性能和/或错误行为。
    这个套接字可以这样访问:

    ceph daemon /var/run/ceph/ceph-client.cinder.19195.32310016.asok help
    

    在每一个计算节点编辑 Ceph配置文件 :

    [client]
    rbd cache = true
    rbd cache writethrough until flush = true
    admin socket = /var/run/ceph/guests/$cluster-$type.$id.$pid.$cctid.asok
    log file = /var/log/qemu/qemu-guest-$pid.log
    rbd concurrent management ops = 20
    

    为这些路径配置permissions权限

    mkdir -p /var/run/ceph/guests/ /var/log/qemu/
    chown qemu:libvirtd /var/run/ceph/guests /var/log/qemu/
    

    JUNO
    在 Juno 版中, Ceph 块设备移到了 [libvirt] 段下。编辑所有计算节点上的 /etc/nova/nova.conf 文件,在 [libvirt] 段下添加:

    (6982行)
    [libvirt]
    images_type = rbd
    images_rbd_pool = vms
    images_rbd_ceph_conf = /etc/ceph/ceph.conf
    rbd_user = cinder
    rbd_secret_uuid = 9191d801-4d57-476e-acfb-84bf55d0bd54
    disk_cachemodes="network=writeback"
    

    禁用文件注入也是一个好习惯。启动一个实例时, Nova 通常试图打开虚拟机的根文件系统。然后, Nova 会把比如密码、 ssh 密钥等值注入到文件系统中。然而,最好依赖元数据服务和 cloud-init 。

    编辑所有计算节点上的 /etc/nova/nova.conf 文件,在 [libvirt] 段下添加:

    inject_password = false
    inject_key = false
    inject_partition = -2
    

    相关文章

      网友评论

          本文标题:openstack 配置ceph

          本文链接:https://www.haomeiwen.com/subject/hhyazftx.html