本文的所有配置及集群的搭建,都是基于zookeeper-3.4.10的。
zoo.cfg配置详解
参数名 | 说明 |
---|---|
clientPort | 客户端连接Server的端口,即对外服务端口,一般设置为2181 |
dataDir | 存储快照文件snapshot的目录。默认情况下,事务日志也会存储在这里。建议同时配置参数dataLogDir,事务日志的写性能直接影响zk性能 |
tickTime | zk中的一个时间单元,zk中所有时间都是以这个时间单元为基础,进行整数倍配置的。例如,session的最小超时时间是2*tickTime |
dataLogDir | 事务日志输出目录。尽量给事务日志的输出配置单独的磁盘或是挂载点,这将极大的提升zk性能(No Java System Property) |
globalOutstandingLimit | 最大请求堆积数。默认是1000。zk运行的时候,尽管server已经没有空闲来处理更多的客户端请求了,但还是允许客户端将请求提交到服务器上来,以提高吞吐性能。当然,为了防止Server内存溢出,这个请求堆积数还是需要限制下的。(Java System Property:zookeeper.globalOutstandingLimit) |
preAllocSize | 预先开辟磁盘空间,用于后续写入事务日志。默认是64M,每个事务日志大小就是64M。如果zk的快照频率较大的话,建议适当减小这个参数。(Java System Property:zookeeper.preAllocSize) |
snapCount | 每进行snapCount次事务日志输出后,出发一次快照(snapshot),此时,zk会生成一个snapshot.*文件,同时创建一个新的事务日志文件log.*。默认是100000.(真正的代码实现中,会进行一定的随机数处理,以避免所有服务器在同一时间进行快照而影响性能)。(Java System Property:zookeeper.snapCount) |
traceFile | 用于记录所有请求的log,一般调试过程中可以使用,但是生产环境不建议使用,会严重影响性能。(Java System Property:zookeeper.requestTraceFile) |
maxClientCnxns | 单个客户端与单台服务器之间的连接数的限制,是IP级别的,默认是60,如果设置为0,那么表明不作任何限制。请注意这个限制的使用范围,仅仅是单台客户端机器与单台zk服务器直接的连接数限制,不是针对指定客户端IP,也不是zk集群的连接数限制,也不是单台zk对所有客户端的连接数限制。 |
clientPortAddress | 对于多网卡的机器,可以为每个IP指定不同的监听端口。默认情况是所有IP都监听clientPort指定的端口。 |
minSessionTimeoutmaxSessionTimeout | Session超时时间限制,如果客户端设置的超时时间不在这个范围,那么会被强制设置为最大或最小时间。默认的Session超时时间是在2*tickTime~20*tickTime这个范文 |
fsync.warningthresholdms | 事务日志输出时,如果调用fsync方法超过指定的超时时间,那么会在日志中输出警告信息。默认是1000ms。( Java system property: fsync.warningthresholdms) |
autopurge.purgeInterval | 在上文中已经提到,3.4.0及之后版本,ZK提供了自动清理事务日志和快照文件的功能,这个参数指定了清理频率,单位是小时,需要配置一个1或更大的整数,默认是0,表示不开启自动清理功能。(No Java system property) |
autopurge.snapRetainCount | 这个参数和上面的参数搭配使用,这个参数指定了需要保留的文件数目。默认是保留3个。(No Java system property) |
electionAlg | 在之前的版本中, 这个参数配置是允许我们选择leader选举算法,但是由于在以后的版本中,只会留下一种“TCP-based version of fast leader election”算法,所以这个参数目前看来没有用了,这里也不详细展开说了。(No Java system property) |
initLimit | Follower在启动过程中,会从Leader同步所有最新数据,然后确定自己能够对外服务的起始状态。Leader允许F在 initLimit 时间内完成这个工作。通常情况下,我们不用太在意这个参数的设置。如果ZK集群的数据量确实很大了,F在启动的时候,从Leader上同步数据的时间也会相应变长,因此在这种情况下,有必要适当调大这个参数了。(No Java system property) |
syncLimit | 在运行过程中,Leader负责与ZK集群中所有机器进行通信,例如通过一些心跳检测机制,来检测机器的存活状态。如果L发出心跳包在syncLimit之后,还没有从F那里收到响应,那么就认为这个F已经不在线了。注意:不要把这个参数设置得过大,否则可能会掩盖一些问题。(No Java system property) |
leaderServes | 默认情况下,Leader是会接受客户端连接,并提供正常的读写服务。但是,如果你想让Leader专注于集群中机器的协调,那么可以将这个参数设置为no,这样一来,会大大提高写操作的性能。(Java system property: zookeeper.leaderServes) |
server.x=[hostname]:nnnnn[:nnnnn] | 这里的x是一个数字,与myid文件中的id是一致的。右边可以配置两个端口,第一个端口用于F和L之间的数据同步和其它通信,第二个端口用于Leader选举过程中投票通信。 (No Java system property) |
group.x=nnnnn[:nnnnn]weight.x=nnnnn | 对机器分组和权重设置,可以 参见这里(No Java system property) |
cnxTimeout | Leader选举过程中,打开一次连接的超时时间,默认是5s。(Java system property: zookeeper.cnxTimeout) |
zookeeper.DigestAuthenticationProvider.superDigest | ZK权限设置相关,具体参见 《 使用super 身份对有权限的节点进行操作 》 和 《 ZooKeeper 权限控制 》 |
skipACL | 对所有客户端请求都不作ACL检查。如果之前节点上设置有权限限制,一旦服务器上打开这个开头,那么也将失效。(Java system property: zookeeper.skipACL) |
forceSync | 这个参数确定了是否需要在事务日志提交的时候调用 [FileChannel ](http://rdc.taobao.com/team/%5C/java%5C/jdk1.6.0_22%5C/jre%5C/lib%5C/rt.jar%3Cjava.nio.channels(FileChannel.class%E2%98%83FileChannel).force来保证数据完全同步到磁盘。(Java system property:zookeeper.forceSync) |
jute.maxbuffer | 每个节点最大数据量,是默认是1M。这个限制必须在server和client端都进行设置才会生效。(Java system property:jute.maxbuffer) |
zoo.cfg配置要求
<table>
<tr>
<td>类型</td>
<td>配置项</td>
<td>描述</td>
</tr>
<tr>
<td rowspan="3">最低配置</td>
<td>clientPort</td>
<td>监听客户端连接的端口,默认值为2181</td>
</tr>
<tr>
<td>dataDir</td>
<td>存储持久数据的本地文件系统位置</td>
</tr>
<tr>
<td>tickTime</td>
<td>基本事件单元,以毫秒为单位,用来控制心跳和超时,默认情况下超时时间为两倍的tickTime</td>
</tr>
<tr>
<td rowspan="3">高级配置</td>
<td>dataLogDir</td>
<td>事件日志写入的目录</td>
</tr>
<tr>
<td>maxClientCnxns</td>
<td>限制连接到Zookeeper的客户端数量,并且限制并发连接数量,它通过ip区分不同的客户端</td>
</tr>
<tr>
<td>minSessionTimeout与maxSessionTimeout</td>
<td>最小会话超时时间和最大的会话超时时间,在默认情况下,最小的会话超时时间为两倍的tickTime时间,最大的会话超时时间为20倍的会话超时时间,系统启动时会显示相应的信息。默认为-1</td>
</tr>
<tr>
<td rowspan="3">集群配置</td>
<td>initLimit</td>
<td>参数设定了允许所有Follower与Leader进行连接并同步的时间,如果在设定的时间段内,半数以上的Follower未能完成同步,Leader便会宣布放弃领导地位,进行另一次的Leader选举。如果zk集群环境数量确实很大,同步数据的时间会很变长,因此这种情况下可以适当调大该参数。默认为10</td>
</tr>
<tr>
<td>syncLimit</td>
<td>参数设定了允许一个Follower与一个Leader进行同步的时间,如果在设定的时间段内,Follower未完成同步,它将会被集群丢弃。所有连接到这个Follower的客户端将连接到另外一个Follower</td>
</tr>
<tr>
<td>server.A=B:C:D</td>
<td>其中A是一个数字,表示这个是第几号服务器;B是这个服务器的IP地址或者主机名称;C表示的是Follower与Leader交换信息的端口,默认值为2888;D表示的是Leader选举端口,默认值为3888</td>
</tr>
</table>
集群搭建
软件准备
由于zookeeper是基于Java开发的,所以需要Java环境,需要的童鞋,请自行百度,安装Java环境
wget http://ftp.mirror.tw/pub/apache/zookeeper/zookeeper-3.4.10/zookeeper-3.4.10.tar.gz
tar -zxvf zookeeper-3.4.10.tar.gz
cd zookeeper-3.4.10/conf
mv zoo_sample.cfg
注意: zookeeper默认配置文件为zoo_sample.cfg,需要自定义配置时,需要将此配置文件修改为zoo.cfg,注意,zoo.cfg和zoo_sample.cfg文件不能同时存在
集群配置
- zoo.cfg
对此配置文件的配置项不做解释,每项具体含义,上面都有详细解释,读者可自行查阅
tickTime=2000
initLimit=10
syncLimit=5
dataDir=/home/zk/zookeeper-3.4.10/data/
dataLogDir=/home/zk/zookeeper-3.4.10/logs/
clientPort=2181
autopurge.snapRetainCount=500
autopurge.purgeInterval=24
server.1=192.168.11.12:2888:3888
server.2=192.168.11.13:2888:3888
server.3=192.168.11.14:2888:3888
然后将配置文件同步到其他两台服务器上。
推荐使用scp命令,如:
scp /home/zk/zookeeper-3.4.10/conf/zoo.cfg zk@192.168.11.12:/home/zk/zookeeper-3.4.10/conf
- 创建ServerID标识(敲黑板了,此处是重点)
在192.168.11.12服务器的/home/zk/zookeeper-3.4.10/data目录下,新建myid文件,输入1;
其他服务器上类似,myid与server.x=192.168.11.12:2888:3888的x匹配。
echo "1" > /home/zk/zookeeper-3.4.10/data/myid
启动集群
在三台服务器上执行以下命令。
sh zkServer.sh start
注意:
启动zookeeper常见问题有以下几点:
- 启动第一台zk节点时,查看日志,可以看见有异常,因为其他节点未启动,zk检查线程未找到zk集群的其他节点,所以报错。将其他节点起起来即可。
- 节点启动成功,但是不能正常连接,请开发zk集群涉及到的防火墙端口
- 启动节点报错,极有可能是zoo.cfg配置文件配置有误,请检查配置文件配置项是否正确
- 其他问题请自行百度(解决问题是一个程序员最基本的能力)
如果一些童鞋的服务器或虚拟机资源不足,可使用zookeeper的伪集群方式部署,思路:通过在同一台机器上,启动不同端口的zookeeper,即可构成集群,此处就不再累述了。
网友评论