美文网首页
ceph 之集群容量性能测试

ceph 之集群容量性能测试

作者: wayyyy | 来源:发表于2023-06-22 13:54 被阅读0次

    组网规划

    网络配置对于构建高性能Ceph集群至关重要。客户端会直接向Ceph OSD 发出请求,Ceph OSD 会向客户端执行数据复制,这意味着数据复制会在网络上进行,这势必会带来很大的网络开负载。

    所以,ceph 有两个网络,即公网和私网,公网承载Ceph对外通信以及数据交互,私网承载与Ceph集群相关的流量。如果不配置两个网络,Ceph 的所有流量会使用同一个网络,这样性能就会相对较低。

    image.png

    公网:用于客户端访问,客户端向Ceph发起读写请求,Mon 监管集群,各种网关发起的访问请求都会通过公网处理。

    私网:用于内部数据同步,OSD 之间副本数据同步,数据自我恢复均需要通过私网处理。

    这两个网络虽然可以共享同一硬件资源,但是共享带宽会带来客户端访问性能下降等问题。所以在生产环境中建议使用独立的组网方案,即两个网络分开,交换机也需要进行堆叠区分。


    服务器规划

    追求高IOPS
    硬件 配置
    CPU 假定主频为2GHz,则每个NVMe SSD 使用 6core 或者每个非NVMe SSD 使用2core
    RAM 16 GB + 5GB * OSD 数量,16GB为基线,根据OSD数量增加内存,每个OSD使用5GB
    数据磁盘 NVMe SSD
    BlueStore WAL/DB 可与MVMe 数据盘同盘
    磁盘控制器 PCIe
    OSD 进程数 每个NVMe SSD 分配2个OSD进程
    网络 每2个OSD(进程)使用10GB带宽网络
    追求良好的吞吐量
    硬件 配置
    CPU 假定主频为2GHz,则每个HDD 使用 0.5core
    RAM 16 GB + 5GB * OSD 数量,16GB为基线,根据OSD数量增加内存,每个OSD使用5GB
    数据磁盘 7200 RPM 的 HDD
    BlueStore WAL/DB 使用独立的MVMe SSD 或者 STAT SSD 作为加速
    磁盘控制器 HBA(使用JBOD模式)
    OSD 进程数 每个HDD分配一个OSD进程
    网络 每12个OSD(进程)使用10GB带宽网络
    追求低成本,高容量的场景
    硬件 配置
    CPU 假定主频为2GHz,则每个HDD 使用 0.5core
    RAM 16 GB + 5GB * OSD 数量,16GB为基线,根据OSD数量增加内存,每个OSD使用5GB
    数据磁盘 7200 RPM 的 HDD
    BlueStore WAL/DB 可与HDD 数据盘同盘
    磁盘控制器 HBA(使用JBOD模式)
    OSD 进程数 每个HDD分配一个OSD进程
    网络 每12个OSD(进程)使用10GB带宽网络

    集群容量性能测试

    iPerf

    利用iPerf 进行网络方面的测试。

    FIO

    一般来说,利用FIO等工具进行4K的随机写,顺序写,随机读,顺序读的IOPS和极限带宽测试。

    cosbench

    测试对象存储性能

    RADOS
    • 写入速率测试

      rados bench -p scbench 10 write --no-cleanup
      
    • 顺序读速率测试

      rados bench -p scbench 10 seq
      
    • 随机读速率测试

      rados bench -p scbench 10 rand
      

    参考资料:
    1、《Ceph 企业级分布式存储原理与工程实践》

    相关文章

      网友评论

          本文标题:ceph 之集群容量性能测试

          本文链接:https://www.haomeiwen.com/subject/yczpydtx.html