五.osd

作者: 竹莲心龙 | 来源:发表于2016-10-28 16:36 被阅读0次

1.准备目录并设置权限

ssh ceph-node6-osd
su - myceph

sudo mkdir -p /cephdata
sudo chown ceph:ceph -R /cephdata
cd /var/lib/
sudo chmod 777 -R ceph

2.osd证书及ceph证书

ssh ceph-admin
cd /my-cluster
scp ceph.bootstrap-osd.keyring ceph-node6-osd:/var/lib/ceph/bootstrap-osd/ceph.keyring

sudo scp ceph.conf ceph-node6-osd:/etc/ceph/

3.准备osd

sudo ceph-disk prepare --cluster ceph --cluster-uuid 2aed34d1-b133-41cd-8a1d-6026138bef36 --fs-type ext4 /cephdata

4.激活(默认会自动启动ceph服务)

sudo ceph-disk activate /cephdata

5.手动启动osd

sudo ceph-osd --osd-data /cephdata --cluster ceph --id 2aed34d1-b133-41cd-8a1d-6026138bef36 -i $id

6.验证
在mon节点

ceph -s  或 su - myceph && sudo ceph -s

可以见到如下信息,说明ceph基本搭建完成

[root@ceph-node5-mon ~]# ceph -s
    cluster 2aed34d1-b133-41cd-8a1d-6026138bef36
     health HEALTH_OK
     monmap e1: 3 mons at {ceph-node1-mon=10.2.2.11:6789/0,ceph-node4-mon=10.2.2.14:6789/0,ceph-node5-mon=10.2.2.15:6789/0}
            election epoch 16, quorum 0,1,2 ceph-node1-mon,ceph-node4-mon,ceph-node5-mon
     osdmap e36: 3 osds: 3 up, 3 in
            flags sortbitwise
      pgmap v201: 64 pgs, 1 pools, 0 bytes data, 0 objects
            26969 MB used, 115 GB / 142 GB avail
                  64 active+clean

7.调整OSD的权重

ceph osd crush reweight {osd_name} {权重}

官方建议用 1.00 作为 1TB 存储设备的相对权重,这样 0.5 的权重大概代表 500GB 、 3.00 大概代表 3TB

查看权重

ceph osd crush tree

8.删除OSD
通常在删除仅有5个节点的小集群的OSD节点的时候,先将要删除的OSD节点权限设置为0,等数据均衡完成后,在剔除OSD,删除OSD

ceph osd crush reweight osd.{osd-num} 0  #设置权重为0

ceph -w  #观察

ceph osd out {osd-num}  #剔除osd
ceph osd in {osd-num}  #将osd加入

ssh {osd-host}
sudo /etc/init.d/ceph stop osd.{osd-num}  #关闭osd

ceph osd crush remove {name} #删除osd

ceph auth del osd.{osd-num}  #删除osd认证密钥

ceph osd rm {osd-num} #删除osd

修改ceph.conf,删除对应条目

相关文章

  • 五.osd

    1.准备目录并设置权限 2.osd证书及ceph证书 3.准备osd 4.激活(默认会自动启动ceph服务) 5....

  • 删除osd

    3、删除osd 删除上面创建的osd。 ceph osd outsystemctl stop ceph-osd@c...

  • ceph osd

    删除osd 将特定osd out,out之后,ceph开始重新平衡,拷贝此osd上数据到其它osd,此osd状态变...

  • ceph osd 部署

    配置文件中添加osd模块 生成uuid作为osd ID 创建osd实例 创建osd目录 创建osd文件系统 添加o...

  • ceph数据恢复—系统盘故障,如何恢复集群

    1将osd从crush中删除,并删除对应的osd,和auth,host ceph osd crush rm osd...

  • 删除osd

    ceph修复osd为down的情况 尝试一、直接重新激活所有osd 1、查看osd树 发现osd.1是down掉的...

  • 分布式存储ceph——(3)ceph 添加/删除osd

    一、添加osd: 当前ceph集群中有如下osd,现在准备新添加osd: (1)选择一个osd节点,添加好新的硬盘...

  • 维护ceph的15条关键命令

    1、ceph osd tree 2、ceph osd df 3 ceph osd dump从osdmap中获取信息...

  • CEPH 心跳机制osd-heartbeat

    osd heartbeat流程分析:从ceph_osd.cc开始, 也就是ceph-osd服务启动开始: hb_b...

  • Ceph 移除OSD

    针对osd是一整块硬盘的情况针对osd是一整块硬盘的情况针对osd是一整块硬盘的情况 删除OSD(手动) 找到os...

网友评论

      本文标题:五.osd

      本文链接:https://www.haomeiwen.com/subject/jwdeuttx.html