容量计算
- osd
- pool
- bucket
- 对象的访问控制
- 用户/存储桶配额检查
存储池(Pool)
副本数
1. 查看存储池副本数
# ceph osd pool get pool_name size
2. 设置存储池副本数
# ceph osd pool set pool_name size 3
2. 打印存储池列表
# ceph osd lspools
空间大小
# ceph df
GLOBAL:
SIZE AVAIL RAW USED %RAW USED
2.73TiB 2.71TiB 13.6GiB 0.49
POOLS:
NAME ID USED %USED MAX AVAIL OBJECTS
.rgw.root 1 1.09KiB 0 880GiB 4
default.rgw.control 2 0B 0 880GiB 8
default.rgw.meta 3 1.24KiB 0 880GiB 7
default.rgw.log 4 0B 0 880GiB 207
default.rgw.buckets.index 18 0B 0 880GiB 2
default.rgw.buckets.data 19 2.38GiB 0.27 880GiB 630
default.rgw.buckets.non-ec 20 0B 0 880GiB 0
分析
- 3台物理机,每台物理机有1块1T硬盘做raid0,物理可用空间为1*3=3T;
- ceph层将每台服务器1T硬盘当成一个osd数据节点,这样global总空间可用大小便是1*3=3T(约2.73TiB);
- 查看pool副本数为3,故整个集群可用空间为3/3=1T(约880GiB);
- pool可用大小是基于总空间大小,而且并没有定义单个pool限额,故所有pools的可用大小便是基于副本数size的总集群可用大小,这里ceph对pool的最大可用大小定义有些模糊;
- bucket和用户可配置磁盘限额;
网友评论