美文网首页
NFS+keepalived+Sersync搭建nfs群集过程记

NFS+keepalived+Sersync搭建nfs群集过程记

作者: 阿乐_822e | 来源:发表于2020-06-21 01:26 被阅读0次

    参考:https://blog.csdn.net/qq_32488647/article/details/105386586?utm_medium=distribute.pc_relevant.none-task-blog-baidujs-4
    https://blog.csdn.net/qq_38026977/article/details/105247623?utm_medium=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-1.nonecase&depth_1-utm_source=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-1.nonecase
    但原文一中有一些小缺漏,故在这里记录如下,以备日后参考
    原理:本方案 NFS 的高可用方案,应用服务器为 Client ,两台文件服务器分别Master和 Slave,使用 keepalived 生成一个虚拟 IP,使用 Sersync 进行 Master 与 Slave 之间文件相互同步,确保高可用。
    服务器表格:
    Nfs-master: 172.20.10.80
    Nfs-slave: 172.20.10.81
    虚拟出VIP:172.20.10.82
    Client: 172.20.10.20

    准备工作

    保持三台机关闭防火墙

    # 在 Master 和 Slave 上创建共享目录
    mkdir /data
    # 在 Client 上创建挂载目录
    mkdir /qiyuesuodata
    

    安装 NFS 并配置

    #在 Client 、Master 和 Slave 服务器上安装 NFS 服务
    yum -y install nfs-utils rpcbind
    # 在Master 上配置nfs
    [root@nfs-master ~]# echo '/data 172.20.10.0/24(rw,sync,all_squash)' >> /etc/exports
    # 开启服务
    [root@nfs-master ~]# systemctl start rpcbind && systemctl start nfs
    # 设置开机自启
    [root@nfs-master ~]# systemctl enable rpcbind && systemctl enable nfs
    # 在 Slave 上配置nfs
    [root@nfs-slave ~]# echo '/data 172.20.10.0/24(rw,sync,all_squash)' >> /etc/exports
    # 开启服务
    [root@nfs-slave  ~]# systemctl start rpcbind && systemctl start nfs
    # 设置开机自启
    [root@nfs-slave ~]# systemctl enable rpcbind && systemctl enable nfs
    # 在 Client 上执行挂载测试
    [root@docker-app ~]# showmount -e 172.20.10.80
     [root@docker-app ~]# mount -t nfs 172.20.10.80:/data /qiyuesuodata
    # 去除挂载
    [root@docker-app ~]# umount /qiyuesuodata
    # 再测试一下slave(81) ......
    
    

    配置文件同步

    rsync即远程同步,高效。和scp类似,不过rsync可以边复制,边统计、比较,而scp则不能。而sersync则可以记录下被监听目录中发生变化的(包括增加、删除、修改)具体某一个文件或者某一个目录的名字,然后使用rsync同步的时候,只同步发生变化的文件或者目录
    1)在 Slave 配置rsync

    # 安装 rsync
    yum -y install rsync.x86_64
    [root@nfs-slave ~]# cat /etc/rsyncd.conf
    uid = nfsnobody
    gid = nfsnobody
    port = 873
    pid file = /var/rsyncd.pid
    log file = /var/log/rsyncd.log
    use chroot = no
    max connections = 200
    read only = false
    list = false
    fake super = yes
    ignore errors
    [data]
    path = /data
    auth users = qiyuesuo
    secrets file = /etc/rsync_salve.pass
    hosts allow = 172.20.10.80
    # 生成认证文件
    echo 'qiyuesuo:qiyuesuo123' > /etc/rsync_salve.pass
    chmod 600 /etc/rsync_salve.pass
    # 修改 文件夹权限
    chown -R nfsnobody:nfsnobody /data/
    # 启动服务
     rsync --daemon --config=/etc/rsyncd.conf 
    

    2) 在 Slave 上配置自动同步(sersync)

     cd /usr/local/
     wget https://dl.qiyuesuo.com/private/nfs/sersync2.5.4_64bit_binary_stable_final.tar.gz
     tar xvf sersync2.5.4_64bit_binary_stable_final.tar.gz
     mv GNU-Linux-x86/ sersync
     cd sersync/
     # 修改配置文件
    sed -ri '24s#<localpath watch="/opt/tongbu">#<localpath watch="/data">#g' confxml.xml
    sed -ri '25s#<remote ip="127.0.0.1" name="tongbu1"/>#<remote ip="172.20.10.80" name="data"/>#g' confxml.xml
    sed -ri '30s#<commonParams params="-artuz"/>#<commonParams params="-az"/>#g' confxml.xml
    sed -ri '31s#<auth start="false" users="root" passwordfile="/etc/rsync.pas"/>#<auth start="true" users="qiyuesuo" passwordfile="/etc/rsync.pass"/>#g' confxml.xml
    sed -ri '33s#<timeout start="false" time="100"/><!-- timeout=100 -->#<timeout start="true" time="100"/><!-- timeout=100 -->#g' confxml.xml
    #  生成同步帐号
    echo "qiyuesuo123" > /etc/rsync.pass
    chmod 600 /etc/rsync.pass
    
    #启动Sersync
    /usr/local/sersync/sersync2 -dro /usr/local/sersync/confxml.xml
    

    3)在 Master 配置rsync
    与1)中基本相同,除了这3条(互相指向对方ip)
    hosts allow = 172.20.10.80
    secrets file = /etc/rsync_master.pass
    认证文件名为/etc/rsync_master.pass
    4)在 Master 上配置自动同步(sersync)
    与2)中基本相同,除了这一条:
    remote ip="172.20.10.81"

    5)将两个服务加入自动启动,在master和slave两台机上执行

     chmod +x /etc/rc.d/rc.local
     vi   /etc/rc.d/rc.local  # 在末尾添加如下:
    test -f /var/rsyncd.pid && rm -f /var/rsyncd.pid
    /usr/bin/rsync --daemon --config=/etc/rsyncd.conf
    /usr/local/sersync/sersync2 -dro /usr/local/sersync/confxml.xml
    

    注意:rsync服务一定要先于sersync2启动!

    文件同步测试

    到这里已经做好了双机的目录自动同步,可以分别在两台机的/data目录下试下新增、删除文件,看下是否保持一致。同步日志在/var/log/rsyncd.log中。
    如果要单独测试rsync服务,可使用如下命令(在master上)

    rsync -arv /data/  qiyuesuo@172.20.10.81::data --password-file=/etc/rsync.pass
    

    安装 Keepalived

    1)在 Master 上执行

    yum -y install keepalived.x86_64
    # 修改 /etc/keepalived/keepalived.conf
    # 其中 enp0s3 为绑定网卡名称,可以使用 ip addr 命令查看
    # 其中 192.168.50.143  为虚拟 ip ,注意不要和其它 ip 冲突
    [root@nfs-master ~]# rm -f /etc/keepalived/keepalived.conf
    [root@nfs-master ~]# vi  /etc/keepalived/keepalived.conf
    ! Configuration File for keepalived
    
    global_defs {
       router_id NFS-Master
    }
    
    vrrp_script chk_nfs 
    {
        script "/etc/keepalived/nfs_check.sh"    #监控脚本
        interval 2
        weight -20  # keepalived部署了两台所以设为20,如果三台就设为30
    }
    
    vrrp_instance VI_1 {
        state BACKUP    # 两台主机都设为backup非抢占模式
        interface enp0s3
        virtual_router_id 51
        priority 100
        advert_int 1
       nopreempt      # 设置为非抢占模式必须要该参数
        authentication {
            auth_type PASS
            auth_pass qiyuesuo123
        }
       track_script {
            chk_nfs
        }
        virtual_ipaddress {
            172.20.10.82/24
        }
    } 
    # 配置监控脚本
    [root@k8s-nfs-Master ~]# cat << EOF | tee /etc/keepalived/nfs_check.sh  
    #!/bin/bash
    # 如果无法启动nfs服务,则退出keepalive群集
    A=`ps -C nfsd --no-header | wc -l`
    if [ $A -eq 0 ];then
            systemctl restart nfs-server.service
            sleep 2
            if [  `ps -C nfsd --no-header| wc -l` -eq 0 ];then
                pkill keepalived
            fi
    fi
    
    B=`ps -C sersync2 --no-header | wc -l`
    C=`ip a|grep 53.150 | wc -l`
    # NFS正常,sync2未启动,且是vip,则启动sync2
    if [ $A -gt 0 -a $B -eq 0 -a $C -eq 1 ];then
       /usr/local/sersync/sersync2 -dro /usr/local/sersync/confxml.xml
       # echo “nfs-master,要启动sersync2!”
    fi
    
    # nfs正常,sync2已启动,但不是vip,则关闭sync2
    if [[ $A -gt 0 && $B -gt 0 && $C -eq 0 ]]; then
       pkill sersync2
       # echo "nfs-slave,要关闭sersync2"
    fi
    EOF
    [root@k8s-nfs-Master ~]# chmod +x /etc/keepalived/nfs_check.sh
    # 启动服务
    [root@nfs-master ~]# systemctl start  keepalived.service && systemctl enable keepalived.service
    

    说明:在实践的过程中,发现双机同时互相同步可能会产生这样的问题:当A机新添加一个文件,而此时B机恰好开始向A机同步,则有可能会导致A机新加文件丢失,因此,监控脚本本采用了优化的同步策略:只有vip所在的这台机才会向另外一台机同步。因此,要注意在实际工作中,一定要连接到VIP进行操作,如果直连到slave机上对同步目录进行操作,是不会同步到master上的。
    2)在 Slave上执行
    与1)基本相同,除了以下几条:
    router_id NFS-Slave
    state BACKUP //主从结构中,除了master的state为MASTER外,其余节点都要设置为BACKUP
    priority 80 //从节点的权重要比主节点低

    查询vip及挂载测试

    # 查看VIP落在哪台机上
    # 在master或slave上执行
    ip a |grep 82
    # 到client上进行VIP挂载测试
    [root@docker-app ~]# showmount -e 172.20.10.82
    Export list for 172.20.10.82:
    /data 172.20.10.0/24
    mount -t nfs 172.20.10.82:/data /qiyuesuodata
    umount /qiyuesuodata/
    # 测试vip漂移
    # 先在client上长ping 
    [root@docker-app ~]# ping 172.20.10.82
    PING 172.20.10.82 (172.20.10.82) 56(84) bytes of data.
    64 bytes from 172.20.10.82: icmp_seq=1 ttl=64 time=0.188 ms ....
    # 在 Master 上关闭 keepalived
    systemctl stop keepalived.service
    # 到client观察ping的结果或者到slave上查看ip....
    
    

    设置 keepalived 脚本

    因为 ip 的漂移是根据 keepalived 的存活来判断的,所以在 nfs 宕机之后需要手动停止 keepalived 服务来进行ip 的切换,这里在 Master 上编写一个定时任务来检测 nfs 服务是否宕机

    [root@nfs-master ~]# vi /usr/local/sbin/check_nfs.sh
    #!/bin/sh
    # 每秒执行一次
    step=1 #间隔的秒数,不能大于60 
    for (( i = 0; i < 60; i=(i+step) )); do 
      ###检查nfs可用性:进程和是否能够挂载
      /sbin/service nfs status &>/dev/null
      if [ $? -ne 0 ];then
        ###如果服务状态不正常,先尝试重启服务
        /sbin/service nfs restart
        /sbin/service nfs status &>/dev/null
        if [ $? -ne 0 ];then
           # 如服务仍不正常,停止 keepalived
           systemctl stop keepalived.service
        fi
      fi
      sleep $step 
    done 
    # 加入定时任务
    [root@nfs-master ~]# chmod 777 /usr/local/sbin/check_nfs.sh
    [root@nfs-master ~]# crontab -e
    # 输入定时任务
    * * * * *  /usr/local/sbin/check_nfs.sh &> /dev/null
    

    综合测试

    # 先到client上写文件
    [root@docker-app ~]# time dd if=/dev/zero of=/qiyuesuodata/testfile bs=800k count=1024
    # 再立刻到master上停止nfs服务
    [root@nfs-master ~]# service nfs stop
    # 为有更好的效果,可以将脚本check_nfs.sh中的/sbin/service nfs restart这一行注释掉
    # 再到client观察写文件的情况,最终会发现,相比正常情况,在切换过程中发生了文件丢失
    

    原文中还有一个当 Master 宕机时进行重新挂载的clent上的脚本,在实践中发现可以不需要。
    PS: 在实践过程中发现,sersync2+rsync+keepalived+nfs方式配置的nfs群集,对于简单的NFS应用可以,但对于海量的频繁更新的应用,如:elasticsearch,会出现大量同步操作不能及时完成的情况,此时若发生了VIP切换,则可能会造成应用的故障。因此,此时要考虑使用nfs+drbd+heatbeat/keepalived方式了。

    相关文章

      网友评论

          本文标题:NFS+keepalived+Sersync搭建nfs群集过程记

          本文链接:https://www.haomeiwen.com/subject/ufrnxktx.html