美文网首页
centos7搭建redis集群

centos7搭建redis集群

作者: 至爱雅鸿_e631 | 来源:发表于2019-11-03 20:10 被阅读0次

    前置条件

    • 已经编译好的redis压缩包(文末补充文件)
    • /opt目录的存储空间较大,即硬盘挂载在此目录

    开干

    1.将压缩文件上传到服务器

    使用Xshell的rz命令上传

    2.解压压缩包
    unzip redis.zip
    ###解压完毕后得到 redis 和 redis-5.0.5两个文件
    [root@yhwch-zw-50 yhwch]# ls
    lost+found  redis  redis-5.0.5  redis.zip
    [root@yhwch-zw-50 yhwch]# 
    
    2.配置redis

    其实单机即可配置redis集群,只需要额外创建文件夹,将redis的执行文件复制一份即可,但我有6个机器,所以每个机器只配置一个节点

    cd redis-5.0.5 ##进入redis源文件目录
    mkdir redis_node1 ## 创建一个目录
    cd redis_node1 ## 进入新创建的目录
    cp /opt/yhwch/redis-5.0.5/src/redis-cli . ##将cli执行文件复制过来
    cp /opt/yhwch/redis-5.0.5/src/redis-server . ##将server执行文件复制过来
    chmod u+x * ##将复制过来的两个文件设置为可执行文件
    

    以下为场景实操

    [root@yhwch-zw-50 ylbzj]# cd redis-5.0.5/
    [root@yhwch-zw-50 redis-5.0.5]# mkdir redis_node1
    [root@yhwch-zw-50 redis-5.0.5]# cd redis_node1
    [root@yhwch-zw-50 redis_node1]# cp /opt/yhwch/redis-5.0.5/src/redis-cli .
    [root@yhwch-zw-50 redis_node1]# cp /opt/yhwch/redis-5.0.5/src/redis-server .
    [root@yhwch-zw-50 redis_node1]# ls
    redis-cli  redis-server
    [root@yhwch-zw-50 redis_node1]# chmod u+x *
    [root@yhwch-zw-50 redis_node1]# ls
    redis-cli  redis-server
    
    3.配置redis.conf

    按照以下文件配置即可,记得修改ip以及工作目录等,其他无需修改
    建议本地创建配置文件然后上传

    # 守护进程模式
    daemonize yes
    
    # pid file 修改pidfile指向路径
    pidfile /opt/yhwch/redis-5.0.5/redis_node1/redis_node1.pid
    
    # 指明日志文件名
    logfile "./redis7001.log"
    
    # 监听端口
    port 7001
    
    # 绑定ip
    bind 10.0.5.5
    
    # 持久化数据库的文件名
    dbfilename dump-master.rdb
    
    # 工作目录
    dir /opt/yhwch/redis-5.0.5/redis_node1/
    
    # 开启集群
    cluster-enabled yes
    
    # TCP接收队列长度,受/proc/sys/net/core/somaxconn和tcp_max_syn_backlog这两个内核参数的影响
    tcp-backlog 511
    
    # 一个客户端空闲多少秒后关闭连接(0代表禁用,永不关闭)
    timeout 0
    
    # 如果非零,则设置SO_KEEPALIVE选项来向空闲连接的客户端发送ACK
    tcp-keepalive 60
    
    # 指定服务器调试等级
    # 可能值:
    # debug (大量信息,对开发/测试有用)
    # verbose (很多精简的有用信息,但是不像debug等级那么多)
    # notice (适量的信息,基本上是你生产环境中需要的)
    # warning (只有很重要/严重的信息会记录下来)
    loglevel notice
    
    # 设置数据库个数
    databases 16
    
    # 会在指定秒数和数据变化次数之后把数据库写到磁盘上
    # 900秒(15分钟)之后,且至少1次变更
    # 300秒(5分钟)之后,且至少10次变更
    # 60秒之后,且至少10000次变更
    save 900 1
    save 300 10
    save 60 10000
    
    
    # 默认如果开启RDB快照(至少一条save指令)并且最新的后台保存失败,Redis将会停止接受写操作
    # 这将使用户知道数据没有正确的持久化到硬盘,否则可能没人注意到并且造成一些灾难
    stop-writes-on-bgsave-error yes
    
    # 当导出到 .rdb 数据库时是否用LZF压缩字符串对象
    rdbcompression yes
    
    # 版本5的RDB有一个CRC64算法的校验和放在了文件的最后。这将使文件格式更加可靠。
    rdbchecksum yes
    
    # 当master服务设置了密码保护时,slav服务连接master的密码
    masterauth 123456
    
    # 当一个slave失去和master的连接,或者同步正在进行中,slave的行为可以有两种:
    #
    # 1) 如果 slave-serve-stale-data 设置为 "yes" (默认值),slave会继续响应客户端请求,
    # 可能是正常数据,或者是过时了的数据,也可能是还没获得值的空数据。
    # 2) 如果 slave-serve-stale-data 设置为 "no",slave会回复"正在从master同步
    # (SYNC with master in progress)"来处理各种请求,除了 INFO 和 SLAVEOF 命令。
    slave-serve-stale-data yes
    
    # 你可以配置salve实例是否接受写操作。可写的slave实例可能对存储临时数据比较有用(因为写入salve
    # 的数据在同master同步之后将很容易被删除
    slave-read-only yes
    
    # 是否在slave套接字发送SYNC之后禁用 TCP_NODELAY?
    # 如果你选择“yes”Redis将使用更少的TCP包和带宽来向slaves发送数据。但是这将使数据传输到slave
    # 上有延迟,Linux内核的默认配置会达到40毫秒
    # 如果你选择了 "no" 数据传输到salve的延迟将会减少但要使用更多的带宽
    repl-disable-tcp-nodelay no
    
    # slave的优先级是一个整数展示在Redis的Info输出中。如果master不再正常工作了,哨兵将用它来
    # 选择一个slave提升=升为master。
    # 优先级数字小的salve会优先考虑提升为master,所以例如有三个slave优先级分别为10,100,25,
    # 哨兵将挑选优先级最小数字为10的slave。
    # 0作为一个特殊的优先级,标识这个slave不能作为master,所以一个优先级为0的slave永远不会被
    # 哨兵挑选提升为master
    slave-priority 100
    
    
    # 密码验证
    # 警告:因为Redis太快了,所以外面的人可以尝试每秒150k的密码来试图破解密码。这意味着你需要
    # 一个高强度的密码,否则破解太容易了
    requirepass 123456
    
    # redis实例最大占用内存,不要用比设置的上限更多的内存。一旦内存使用达到上限,Redis会根据选定的回收策略(参见:
    # maxmemmory-policy)删除key
    maxmemory 3gb
    
    # 最大内存策略:如果达到内存限制了,Redis如何选择删除key。你可以在下面五个行为里选:
    # volatile-lru -> 根据LRU算法删除带有过期时间的key。
    # allkeys-lru -> 根据LRU算法删除任何key。
    # volatile-random -> 根据过期设置来随机删除key, 具备过期时间的key。 
    # allkeys->random -> 无差别随机删, 任何一个key。 
    # volatile-ttl -> 根据最近过期时间来删除(辅以TTL), 这是对于有过期时间的key 
    # noeviction -> 谁也不删,直接在写操作时返回错误。
    maxmemory-policy volatile-lru
    
    # 默认情况下,Redis是异步的把数据导出到磁盘上。这种模式在很多应用里已经足够好,但Redis进程
    # 出问题或断电时可能造成一段时间的写操作丢失(这取决于配置的save指令)。
    #
    # AOF是一种提供了更可靠的替代持久化模式,例如使用默认的数据写入文件策略(参见后面的配置)
    # 在遇到像服务器断电或单写情况下Redis自身进程出问题但操作系统仍正常运行等突发事件时,Redis
    # 能只丢失1秒的写操作。
    #
    # AOF和RDB持久化能同时启动并且不会有问题。
    # 如果AOF开启,那么在启动时Redis将加载AOF文件,它更能保证数据的可靠性。
    appendonly no
    
    # aof文件名
    appendfilename "appendonly.aof"
    
    # fsync() 系统调用告诉操作系统把数据写到磁盘上,而不是等更多的数据进入输出缓冲区。
    # 有些操作系统会真的把数据马上刷到磁盘上;有些则会尽快去尝试这么做。
    #
    # Redis支持三种不同的模式:
    #
    # no:不要立刻刷,只有在操作系统需要刷的时候再刷。比较快。
    # always:每次写操作都立刻写入到aof文件。慢,但是最安全。
    # everysec:每秒写一次。折中方案。 
    appendfsync everysec
    
    # 如果AOF的同步策略设置成 "always" 或者 "everysec",并且后台的存储进程(后台存储或写入AOF
    # 日志)会产生很多磁盘I/O开销。某些Linux的配置下会使Redis因为 fsync()系统调用而阻塞很久。
    # 注意,目前对这个情况还没有完美修正,甚至不同线程的 fsync() 会阻塞我们同步的write(2)调用。
    #
    # 为了缓解这个问题,可以用下面这个选项。它可以在 BGSAVE 或 BGREWRITEAOF 处理时阻止主进程进行fsync()。
    # 
    # 这就意味着如果有子进程在进行保存操作,那么Redis就处于"不可同步"的状态。
    # 这实际上是说,在最差的情况下可能会丢掉30秒钟的日志数据。(默认Linux设定)
    # 
    # 如果你有延时问题把这个设置成"yes",否则就保持"no",这是保存持久数据的最安全的方式。
    no-appendfsync-on-rewrite yes
    
    # 自动重写AOF文件
    auto-aof-rewrite-percentage 100
    auto-aof-rewrite-min-size 64mb
    
    # AOF文件可能在尾部是不完整的(这跟system关闭有问题,尤其是mount ext4文件系统时
    # 没有加上data=ordered选项。只会发生在os死时,redis自己死不会不完整)。
    # 那redis重启时load进内存的时候就有问题了。
    # 发生的时候,可以选择redis启动报错,并且通知用户和写日志,或者load尽量多正常的数据。
    # 如果aof-load-truncated是yes,会自动发布一个log给客户端然后load(默认)。
    # 如果是no,用户必须手动redis-check-aof修复AOF文件才可以。
    # 注意,如果在读取的过程中,发现这个aof是损坏的,服务器也是会退出的,
    # 这个选项仅仅用于当服务器尝试读取更多的数据但又找不到相应的数据时。
    aof-load-truncated yes
    
    # Lua 脚本的最大执行时间,毫秒为单位
    lua-time-limit 5000
    
    # Redis慢查询日志可以记录超过指定时间的查询
    slowlog-log-slower-than 10000
    
    # 这个长度没有限制。只是要主要会消耗内存。你可以通过 SLOWLOG RESET 来回收内存。
    slowlog-max-len 128
    
    # redis延时监控系统在运行时会采样一些操作,以便收集可能导致延时的数据根源。
    # 通过 LATENCY命令 可以打印一些图样和获取一些报告,方便监控
    # 这个系统仅仅记录那个执行时间大于或等于预定时间(毫秒)的操作, 
    # 这个预定时间是通过latency-monitor-threshold配置来指定的,
    # 当设置为0时,这个监控系统处于停止状态
    latency-monitor-threshold 0
    
    # Redis能通知 Pub/Sub 客户端关于键空间发生的事件,默认关闭
    notify-keyspace-events ""
    
    # 当hash只有少量的entry时,并且最大的entry所占空间没有超过指定的限制时,会用一种节省内存的
    # 数据结构来编码。可以通过下面的指令来设定限制
    hash-max-ziplist-entries 512
    hash-max-ziplist-value 64
    
    # 与hash似,数据元素较少的list,可以用另一种方式来编码从而节省大量空间。
    # 这种特殊的方式只有在符合下面限制时才可以用
    list-max-ziplist-entries 512
    list-max-ziplist-value 64
    
    # set有一种特殊编码的情况:当set数据全是十进制64位有符号整型数字构成的字符串时。
    # 下面这个配置项就是用来设置set使用这种编码来节省内存的最大长度。
    set-max-intset-entries 512
    
    # 与hash和list相似,有序集合也可以用一种特别的编码方式来节省大量空间。
    # 这种编码只适合长度和元素都小于下面限制的有序集合
    zset-max-ziplist-entries 128
    zset-max-ziplist-value 64
    
    # HyperLogLog稀疏结构表示字节的限制。该限制包括
    # 16个字节的头。当HyperLogLog使用稀疏结构表示
    # 这些限制,它会被转换成密度表示。
    # 值大于16000是完全没用的,因为在该点
    # 密集的表示是更多的内存效率。
    # 建议值是3000左右,以便具有的内存好处, 减少内存的消耗
    hll-sparse-max-bytes 3000
    
    # 启用哈希刷新,每100个CPU毫秒会拿出1个毫秒来刷新Redis的主哈希表(顶级键值映射表)
    activerehashing yes
    
    # 客户端的输出缓冲区的限制,可用于强制断开那些因为某种原因从服务器读取数据的速度不够快的客户端
    client-output-buffer-limit normal 0 0 0
    client-output-buffer-limit slave 256mb 64mb 60
    client-output-buffer-limit pubsub 32mb 8mb 60
    
    # 默认情况下,“hz”的被设定为10。提高该值将在Redis空闲时使用更多的CPU时,但同时当有多个key
    # 同时到期会使Redis的反应更灵敏,以及超时可以更精确地处理
    hz 10
    
    # 当一个子进程重写AOF文件时,如果启用下面的选项,则文件每生成32M数据会被同步
    aof-rewrite-incremental-fsync yes
    
    
    4.启动redis并关闭防火墙

    补充一个添加端口白名单的方法,以开启7001端口为例

    ##由于我们需要构建集群所以需要开启7001端口和17001端口,既需要额外开启端口+10000的端口,此端口是集群总线端口
     firewall-cmd --zone=public --add-port=7001/tcp --permanent
     firewall-cmd --zone=public --add-port=17001/tcp --permanent
     firewall-cmd --reload
    

    关闭防火墙或者配置白名单,我比较暴力直接关了防火墙,这么做的目的是创建集群时各个节点需要通讯,如为关闭防火墙会导致通讯失败~

     systemctl stop firewalld ##关闭防火墙
    ./redis-server redis.conf ##启动redis
    ps -ef |grep redis ##检查redis是否启动
    ./redis-cli -h ip地址 -p 端口 -a 密码 ##尝试登陆也可以
    

    以下为场景实操

    [root@yhwch-zw-50 redis_node1]# ./redis-server redis.conf    
    [root@yhwch-zw-50 redis_node1]# ps -ef |grep redis
    root     124351      1  0 19:31 ?        00:00:00 ./redis-server 10.0.5.54:7001 [cluster]
    root     124368 123352  0 19:31 pts/0    00:00:00 grep --color=auto redis
    
    5.如法炮制

    将另外五台机器做同样设置,如果是单机的话循环此步骤,即再创建redis_node2 .... redis_node6等多个目录然后复制执行文件,将配置文件的目录以及端口做修改即可,这样在单机服务上即可有多个redis节点

    6.创建集群和从节点
    cd /opt/yhwch/redis-5.0.5/redis_node1 ##登录其中一个节点
    ##执行集群创建执行,并创建从节点
    ./redis-cli  --cluster  create 101.0.5.4:7001 101.0.5.5:7001 101.0.5.6:7001
     101.0.5.7:7001 101.0.5.8:7001 101.0.5.9:7001 --cluster-replicas 1 -a 123456
    

    --cluster-replicas 1其中的1表示为每个主节点创建一个从节点,这个数字可以变但前面的机器列表一定要与此匹配
    -a 123456其中123456是自主创建的密码
    以下为执行命令后的提示

    Warning: Using a password with '-a' or '-u' option on the command line interface may not be safe.
    >>> Performing hash slots allocation on 6 nodes...
    Master[0] -> Slots 0 - 5460
    Master[1] -> Slots 5461 - 10922
    Master[2] -> Slots 10923 - 16383
    Adding replica 101.0.5.8:7001 to 101.0.5.4:7001
    Adding replica 101.0.5.9:7001 to 101.0.5.5:7001
    Adding replica 101.0.5.7:7001 to 101.0.5.6:7001
    M: 337a6f765b3d2999181d519a75c753c820aa3823 101.0.5.4:7001
       slots:[0-5460] (5461 slots) master
    M: a70598077ef5a232c603416cf6b42a692e96d433 101.0.5.5:7001
       slots:[5461-10922] (5462 slots) master
    M: cff509ac20e849ebee5e9c44b9614ea1933e9c24 101.0.5.6:7001
       slots:[10923-16383] (5461 slots) master
    S: bd2ab5eb7bc23c3b8e2b93e8fadedb45c2d7e230 101.0.5.7:7001
       replicates cff509ac20e849ebee5e9c44b9614ea1933e9c24
    S: aa1afb05ef38272f4ad0cc449816e06559372d1b 101.0.5.8:7001
       replicates 337a6f765b3d2999181d519a75c753c820aa3823
    S: 8dab3c390a802368e8718f42ad482196550cc55d 101.0.5.9:7001
       replicates a70598077ef5a232c603416cf6b42a692e96d433
    Can I set the above configuration? (type 'yes' to accept): yes
    >>> Nodes configuration updated
    >>> Assign a different config epoch to each node
    >>> Sending CLUSTER MEET messages to join the cluster
    Waiting for the cluster to join
    .....
    >>> Performing Cluster Check (using node 101.0.5.54:7001)
    M: 337a6f765b3d2999181d519a75c753c820aa3823 101.0.5.4:7001
       slots:[0-5460] (5461 slots) master
       1 additional replica(s)
    S: bd2ab5eb7bc23c3b8e2b93e8fadedb45c2d7e230 101.0.5.7:7001
       slots: (0 slots) slave
       replicates cff509ac20e849ebee5e9c44b9614ea1933e9c24
    M: cff509ac20e849ebee5e9c44b9614ea1933e9c24 101.0.5.6:7001
       slots:[10923-16383] (5461 slots) master
       1 additional replica(s)
    M: a70598077ef5a232c603416cf6b42a692e96d433 101.0.5.5:7001
       slots:[5461-10922] (5462 slots) master
       1 additional replica(s)
    S: aa1afb05ef38272f4ad0cc449816e06559372d1b 101.0.5.8:7001
       slots: (0 slots) slave
       replicates 337a6f765b3d2999181d519a75c753c820aa3823
    S: 8dab3c390a802368e8718f42ad482196550cc55d 101.0.5.9:7001
       slots: (0 slots) slave
       replicates a70598077ef5a232c603416cf6b42a692e96d433
    [OK] All nodes agree about slots configuration.
    >>> Check for open slots...
    >>> Check slots coverage...
    [OK] All 16384 slots covered.
    
    

    至此集群创建完毕,可以开心使用了

    安装中遇到的问题

    相关文章

      网友评论

          本文标题:centos7搭建redis集群

          本文链接:https://www.haomeiwen.com/subject/tmbtbctx.html