美文网首页
glusterfs的数据恢复

glusterfs的数据恢复

作者: 土豆与番茄 | 来源:发表于2018-01-06 19:33 被阅读0次

    GlusterFS数据恢复

    场景:

    两台GlusterFS 其中一台因为系统奔溃,导致需要重做系统,然后加回到原来的集群中。

    GlusterFS-master1

    GlusterFS-slove(重做系统的)

    在Slove上重新安装GlusterFS

    1、安装GlusterFS的安装源(所有节点)


    yum install

    centos-release-gluster

    2、安装GlusterFS依赖包和服务端

    yum

    install -y glusterfs glusterfs-server glusterfs-fuse glusterfs-rdma glusterfs-geo-replication

    glusterfs-devel

    3、启动GlusterFS(所有节点)

    systemctl start glusterd

    systemctl

    enable glusterd

    4、修改slove上GlusterFS的UUID

    在正常的master上查看slove的UUID

    [root@glusterd-master test]# glusterpeer status

    Number of Peers: 1

    Hostname: glusterd-slave

    Uuid: 419cc6---------------

    State: Peer in Cluster (Connected)

    [root@glusterd-master test]#

    修改slove上的/var/lib/glusterd/glusterd.info

    将master上查到的UUID替换掉原先的。

    [root@glusterd-slave~]#  cat /var/lib/glusterd/glusterd.info

    UUID=419cc6---------------------------------

    operating-version=31200

    [root@glusterd-slave

    ~]#


    5、加入集群

    首先删除master上的集群:

    gluster peer detach  NODE-NAME //移除节点

    在添加集群

    gluster peer probe   NODE-NAME //添加节点

    重启机器

    这样就将slove重新添加到集群中了。


    6、删除重建brick

    查看volume的状态时,发现slove的brick是N

    [root@glusterd-slave nginx]#gluster volume status

    Status of volume: default_kafka

    Gluster process                             TCP Port  RDMA Port Online  Pid

    ------------------------------------------------------------------------------

    Brickglusterd-master:/home/glusterfs/volum

    es/default/kafka                            49152     0         Y       1581

    Brickglusterd-slave:/home/glusterfs/volume

    s/default/kafka                             N/A       N/A        N      N/A 

    Self-heal Daemon on localhost               N/A       N/A        Y      4998

    Self-heal Daemon onglusterd-master         N/A       N/A        Y      4511


    Task Status of Volume default_kafka


    我们需要手动的删掉slove的brick,在重新建立。


    先移除slove的brick

    格式:

    glustervolume remove-brick volume-name  replica1 force

    glustervolume remove-brick   test-zookeeperreplica 1 glusterd-slave:/home/glusterfs/volumes/test/test-zookeeper/ force




    重新添加slove的brick

    格式:

    gluster

    volume add-brick volume-name replica 2 force


    glustervolume add-brick  test-zookeeper replica2 glusterd-slave:/home/glusterfs/volumes/test/test-zookeeper/ force



    这样slove上就会有master上的数据了。

    手动添加的。

    是时间看看自动添加的。

    相关文章

      网友评论

          本文标题:glusterfs的数据恢复

          本文链接:https://www.haomeiwen.com/subject/nrxunxtx.html