开启我们的分布式之路吧!!!
(1)官网下载zookeeper,我这里使用的是3.4.5版本。下载地址
并且我们要给自己的服务器配置hosts先
$ vi /etc/hosts
这里写图片描述
(2)解压呗,我们这就不解压在usr/local那里了,因为涉及太多东东,我们解压配置在我们的用户目录那里。那么我们就是使用我们的用户权限咯!!而不是root用户权限。
这里写图片描述
$ tar -zxvf zookeeper-3.4.5.tar.gz
(3)进入zookeeper目录,创建日志文件夹以及数据文件夹
$ cd /usr/local/zookeeper-3.4.6
$ mkdir data
$ mkdir logs
这里写图片描述
(4)配置文件是很危险,容易出bug的,所以我们一般是使用备份去操作。进入zookeeper的conf目录先!
$ cp zoo_sample.cfg zoo.cfg
(5)修改zoo.cfg配置。
$ vi zoo.cfg
这里写图片描述
tickTime=2000
initLimit=10
syncLimit=5
dataDir=/usr/local/zookeeper/data
dataLogDir=/usr/local/zookeeper/logs
clientPort=2181
//下面的ip也可以用hosts别名zookeeper-01,当然更是可是用我们刚开始修改hosts的时候配置的名字啦!!!
server.1=edu-provider-02:2888:3888
//其中2888是zookeeper服务之间通信的端口
//3888是zookeeper与其他应用程序通信端口
参数名 |
说明 |
clientPort |
客户端连接server的端口,即对外服务端口,一般设置为2181 |
tickTime |
ZK中的一个时间单元。ZK中所有时间都是以这个时间单元为基础,进行整数倍配置的。例如,session的最小超时时间是2*tickTime |
dataDir |
存储快照文件snapshot的目录。默认情况下,事务日志也会存储在这里。建议同时配置参数dataLogDir, 事务日志的写性能直接影响zk性能 |
dataLogDir |
事务日志输出目录。尽量给事务日志的输出配置单独的磁盘或是挂载点,这将极大的提升ZK性能 |
globalOutstandingLimit |
最大请求堆积数。默认是1000。ZK运行的时候, 尽管server已经没有空闲来处理更多的客户端请求了,但是还是允许客户端将请求提交到服务器上来,以提高吞吐性能。当然,为了防止Server内存溢出,这个请求堆积数还是需要限制下的。(Java system property: zookeeper.globalOutstandingLimit. ) |
preAllocSize |
预先开辟磁盘空间,用于后续写入事务日志。默认是64M,每个事务日志大小就是64M。如果ZK的快照频率较大的话,建议适当减小这个参数 |
snapCount |
每进行snapCount次事务日志输出后,触发一次快照(snapshot), 此时,ZK会生成一个snapshot.文件,同时创建一个新的事务日志文件log.。默认是100000.(真正的代码实现中,会进行一定的随机数处理,以避免所有服务器在同一时间进行快照而影响性能)(Java system property: zookeeper.snapCount ) |
traceFile |
用于记录所有请求的log,一般调试过程中可以使用,但是生产环境不建议使用,会严重影响性能。(Java system property:? requestTraceFile ) |
maxClientCnxns |
单个客户端与单台服务器之间的连接数的限制,是ip级别的,默认是60,如果设置为0,那么表明不作任何限制。请注意这个限制的使用范围,仅仅是单台客户端机器与单台ZK服务器之间的连接数限制,不是针对指定客户端IP,也不是ZK集群的连接数限制,也不是单台ZK对所有客户端的连接数限制。指定客户端IP的限制策略,这里有一个patch,可以尝试一下:http://rdc.taobao.com/team/jm/archives/1334(No Java system property) |
clientPortAddress |
对于多网卡的机器,可以为每个IP指定不同的监听端口。默认情况是所有IP都监听 clientPort 指定的端口。 New in 3.3.0 |
minSessionTimeoutmaxSessionTimeout |
Session超时时间限制,如果客户端设置的超时时间不在这个范围,那么会被强制设置为最大或最小时间。默认的Session超时时间是在2 * tickTime ~ 20 * tickTime 这个范围 New in 3.3.0 |
fsync.warningthresholdms |
事务日志输出时,如果调用fsync方法超过指定的超时时间,那么会在日志中输出警告信息。默认是1000ms。(Java system property: fsync.warningthresholdms )New in 3.3.4 |
autopurge.purgeInterval |
在上文中已经提到,3.4.0及之后版本,ZK提供了自动清理事务日志和快照文件的功能,这个参数指定了清理频率,单位是小时,需要配置一个1或更大的整数,默认是0,表示不开启自动清理功能。(No Java system property) New in 3.4.0 |
autopurge.snapRetainCount |
这个参数和上面的参数搭配使用,这个参数指定了需要保留的文件数目。默认是保留3个。(No Java system property) New in 3.4.0 |
electionAlg |
在之前的版本中, 这个参数配置是允许我们选择leader选举算法,但是由于在以后的版本中,只会留下一种“TCP-based version of fast leader election”算法,所以这个参数目前看来没有用了,这里也不详细展开说了。(No Java system property) |
initLimit |
Follower在启动过程中,会从Leader同步所有最新数据,然后确定自己能够对外服务的起始状态。Leader允许F在 initLimit 时间内完成这个工作。通常情况下,我们不用太在意这个参数的设置。如果ZK集群的数据量确实很大了,F在启动的时候,从Leader上同步数据的时间也会相应变长,因此在这种情况下,有必要适当调大这个参数了。(No Java system property) |
syncLimit |
在运行过程中,Leader负责与ZK集群中所有机器进行通信,例如通过一些心跳检测机制,来检测机器的存活状态。如果L发出心跳包在syncLimit之后,还没有从F那里收到响应,那么就认为这个F已经不在线了。注意:不要把这个参数设置得过大,否则可能会掩盖一些问题。(No Java system property) |
leaderServes |
默认情况下,Leader是会接受客户端连接,并提供正常的读写服务。但是,如果你想让Leader专注于集群中机器的协调,那么可以将这个参数设置为no,这样一来,会大大提高写操作的性能。(Java system property: zookeeper. leaderServes ) |
server.x=[hostname]:nnnnn[:nnnnn] |
这里的x是一个数字,与myid文件中的id是一致的。右边可以配置两个端口,第一个端口用于F和L之间的数据同步和其它通信,第二个端口用于Leader选举过程中投票通信。(No Java system property) |
group.x=nnnnn[:nnnnn]weight.x=nnnnn |
对机器分组和权重设置,可以 参见这里(No Java system property) |
cnxTimeout |
Leader选举过程中,打开一次连接的超时时间,默认是5s。(Java system property: zookeeper. cnxTimeout ) |
zookeeper.DigestAuthenticationProvider.superDigest |
ZK权限设置相关,具体参见《使用super身份对有权限的节点进行操作 》和 《ZooKeeper权限控制》 |
skipACL |
对所有客户端请求都不作ACL检查。如果之前节点上设置有权限限制,一旦服务器上打开这个开头,那么也将失效。(Java system property: zookeeper.skipACL ) |
forceSync |
这个参数确定了是否需要在事务日志提交的时候调用 FileChannel .force来保证数据完全同步到磁盘。(Java system property: zookeeper.forceSync ) |
jute.maxbuffer |
每个节点最大数据量,是默认是1M。这个限制必须在server和client端都进行设置才会生效。(Java system property: jute.maxbuffer ) |
(6)数据报要对应给到我们对应的机器:进入我们创建的data目录
这里写图片描述
相当于创建myid文件。然后给到我们刚刚对应的server的机器编号1
$ vi myid
这里写图片描述
(7)配置环境变量:我们下载安装的是用户目录下的,所以我们要用用户权限去到我们的用户目录
切换用户
$ su 用户名
//进入用户目录
$ cd ~
这里写图片描述
然后就在这个目录下进行修改操作咯
vi .bash_profile
这里写图片描述
export ZOOKEEPER_HOME=/home/dsc/zookeep
export PATH=$ZOOKEEPER_HOME/bin:$PATH
(8)使我们的修改配置生效:
$ source .bash_profile
(9)防火墙的修改配置:(!!!注意!!!要用root用户权限去修改)
CentOS 默认使用的是firewalled作为防火墙,这里改为iptables防火墙。
1.关闭firewalled。
systemctl stop firewalld.service //停止firewall
systemctl disable firewalld.service //禁止firewall开机启动
2.安装iptables防火墙 。
yum install iptables-services //安装
vi /etc/sysconfig/iptables //编辑防火墙配置文件
这里写图片描述
#zookeeper
-A FORWARD -j REJECT --reject-with icmp-host-prohibited RH-Firewall-1-INPUT -m state --state NEW -m tcp -p tcp --dport 8080 -j ACCEPT
-A FORWARD -j REJECT --reject-with icmp-host-prohibited RH-Firewall-1-INPUT -m state --state NEW -m tcp -p tcp --dport 2181 -j ACCEPT
-A FORWARD -j REJECT --reject-with icmp-host-prohibited RH-Firewall-1-INPUT -m state --state NEW -m tcp -p tcp --dport 2888 -j ACCEPT
-A FORWARD -j REJECT --reject-with icmp-host-prohibited RH-Firewall-1-INPUT -m state --state NEW -m tcp -p tcp --dport 3888 -j ACCEPT
3.改完就启动啊!!
$ systemctl restart iptables.service //最后重启防火墙使配置生效
$ service iptables restart
$ service iptables status
4.还要设置下开机启动
$ systemctl enable iptables.service //设置防火墙开机启动
(10)启动zookeeper测试:。进入到zookeeper的bin目录下:
$ ./zkServer.sh start
//产看状态
$ ./zkServer.sh status
//查看进程:
$ ps
(11)设置开机启动:
$ vi /etc/rc.local
就是一句话 su - root -c '/home/dsc/zookeeper-3.4.5/bin/zkServer.sh start'
这里写图片描述
注意点:
(1)启动日志监控器监控观察。进入我们的zookeeper的bin目录下
$ tail -500f zookeeper.out
这里写图片描述
(2)还有一些启动失败的错误:
java.net.BindException: 地址已在使用
解决:方法1.修改zoo.cfg文件中的端口设置,2181改为其他。方法2.使用$ ./zkServer.sh status查看zookeeper状态端口,再使用kill命令杀死该进程,重启zookeeper即可!
好了,分布式--CentOS安装zookeeper(单机版)讲完了。本博客系列是我项目中分布式的一些过程中的笔记,拿出来分享经验给大家。欢迎在下面指出错误,共同学习!!你的点赞是对我最好的支持!!
网友评论