美文网首页
zk集群开启sasl认证

zk集群开启sasl认证

作者: 站在海边看远方 | 来源:发表于2019-05-31 16:58 被阅读0次

    上一篇文章写了关于zk单机开启sasl认证的一些内容:zk单机开启sasl认证
    建议看本篇文章之前需回顾一下上一篇文章的内容。
    单个zk开启sasl认证需要配置三部分:

    • conf/zoo.cfg
    • conf/java.env
    • conf/sasl.conf

    zk集群的sasl认证,集群中的每一个zk也配置如上三个文件,就可以开启集群的sasl认证了。认证方式使用digest-md5。

    本次测试是在一台机器上起3个zk,模拟zk集群的部署,使用版本为3.4.10。
    集群各节点端口如下:
    zk-1:2181
    zk-2:2182
    zk-3:2183

    1.集群部署

    1.1配置文件修改

    官网获取zookeeper-3.4.10.tar.gz,下载页面:zookeeper-3.4.10

    tar -zxvf zookeeper-3.4.10.tar.gz
    cd zookeeper-3.4.10/conf
    cp zoo_sample.cfg  zoo.cfg
    

    下面修改zoo.cfg,这是zookeeper的配置文件
    单机部署的话一般只需要修改dataDir,dataLogDir,clientPort三个配置项
    集群部署需要添加集群信息配置,sasl认证在上一篇文章介绍了,需要加2行配置
    修改之后的配置如下:

    # The number of milliseconds of each tick
    tickTime=2000
    # The number of ticks that the initial 
    # synchronization phase can take
    initLimit=10
    # The number of ticks that can pass between 
    # sending a request and getting an acknowledgement
    syncLimit=5
    # the directory where the snapshot is stored.
    # do not use /tmp for storage, /tmp here is just 
    # example sakes.
    
    #这里配置zk的数据存储路径,会在bin目录下生成data文件夹
    dataDir=./data
    
    #这里配置日志文件目录,会在安装目录下生成logs文件夹
    dataLogDir=../logs
    
    # the port at which the clients will connect
    #默认端口2181,可根据需要修改
    clientPort=2181
    # the maximum number of client connections.
    # increase this if you need to handle more clients
    #maxClientCnxns=60
    #
    # Be sure to read the maintenance section of the 
    # administrator guide before turning on autopurge.
    #
    # http://zookeeper.apache.org/doc/current/zookeeperAdmin.html#sc_maintenance
    #
    # The number of snapshots to retain in dataDir
    #autopurge.snapRetainCount=3
    # Purge task interval in hours
    # Set to "0" to disable auto purge feature
    #autopurge.purgeInterval=1
    
    #zk集群信息配置
    #server.A=B:C:D中的A是一个数字,表示这个是第几号服务器
    #B是这个服务器的IP地址
    #C第一个端口用来集群成员的信息交换,表示这个服务器与集群中的leader服务器交换信息的端口
    #D是在leader挂掉时专门用来进行选举leader所用的端口
    server.1= 172.16.17.19:2886:3886
    server.2= 172.16.17.19:2887:3887
    server.3= 172.16.17.19:2888:3888
    
    #zk auth
    #server端启用sasl,添加如下配置
    authProvider.1=org.apache.zookeeper.server.auth.SASLAuthenticationProvider
    requireClientAuthScheme=sasl
    

    1.2.创建ServerId标识

    zk集群间通信,需要配置每个zk节点的标识,具体需要在dataDir目录下(dataDir在上一步的zoo.cfg中已经进行了配置)新建一个myid文件,然后指定zk的id,如果当前机器id想指定为1,将1写入myid文件中,myid的内容需要与zoo.cfg文件中的server配置保持一致。一个节点指定一个id。
    本次测试最终是3个节点组成一个集群,zk-1指定id=1,zk-2指定id=2,zk-3指定id=3

    1.3.配置java.env和sasl.conf

    java.env

    SERVER_JVMFLAGS="-Djava.security.auth.login.config=/zk/zk-1/conf/sasl.conf"
    

    sasl.conf

    Server {
           org.apache.zookeeper.server.auth.DigestLoginModule required
           user_super="super";
         
    };
    

    1.4.zk节点复制,修改其他节点的配置

    将zookeeper-3.4.10这个文件夹重命名为zk-1,复制zk-1,复制2次,修改复制后的文件夹名称为zk-2,zk-3。

    1.4.1.修改myid

    进入dataDir所在的目录,修改myid的值,zk-2修改myid的值为2,zk-3修改myid的值为3

    1.4.2.修改zoo.cfg

    修改clientPort的值,zk-2改为2182,zk-3改为2183

    1.4.3.修改java.env

    zk-2改为:

    SERVER_JVMFLAGS="-Djava.security.auth.login.config=/zk/zk-2/conf/sasl.conf"
    

    zk-3改为:

    SERVER_JVMFLAGS="-Djava.security.auth.login.config=/zk/zk-3/conf/sasl.conf"
    

    2.注意事项

    本次测试是在linux上进行的,Windows环境下测试需要看一下上一篇的第三条注意事项

    2.1.zoo.cfg

    2.1.1. 3个节点zoo.cfg相同部分

    数据目录,server集群信息,zk auth配置3个节点的配置信息都是相同的

    dataDir=./data
    dataLogDir=../logs
    
    server.1= 172.16.17.19:2886:3886
    server.2= 172.16.17.19:2887:3887
    server.3= 172.16.17.19:2888:3888
    
    authProvider.1=org.apache.zookeeper.server.auth.SASLAuthenticationProvider
    requireClientAuthScheme=sasl
    

    2.1.2. 3个节点zoo.cfg不同部分

    3个节点的clientPort配置都是不同的

    clientPort=
    

    2.2. java.env

    3个节点的java.env配置路径都需要修改为自己的sasl.conf的路径
    3个节点的sasl.conf文件的配置都是相同的

    2.3. myid

    3个节点的myid配置都不相同,配置每个节点的myid的时候,需要和zoo.cfg中指定的serverId保持一致

    相关文章

      网友评论

          本文标题:zk集群开启sasl认证

          本文链接:https://www.haomeiwen.com/subject/vwsvtctx.html