[root@node10 ~]# ll /apps/redis/
total 0
drwxr-xr-x 2 redis redis 134 Jul 7 00:07 bin
drwxr-xr-x 2 redis redis 24 Jul 7 01:14 etc
[root@node10 ~]# mkdir /apps/redis/{data,logs,run}
BASIC
[root@node10 ~]# grep "^[a-Z]" /apps/redis/etc/redis.conf
bind 127.0.0.1 192.168.177.139 监听地址,可以写多个,中间以空格隔开
protected-mode yes 3.2之后版本加入的,没有设置监听IP和密码的话,只允许本地访问
port 6379 端口号
tcp-backlog 511 三次握手的时候,server端收到client,ack确认号之后的队列值
timeout 0 客户端和Redis的连接超时时间,默认永不超时
tcp-keepalive 300 3.2.1之后版本新添加的,tcp会话保持时间,探测中断报文
daemonize no 默认情况下 redis 不是作为守护进程运行的,如果你想让它在后台运行,你就把它改成yes,当 redis 作为守护进程运行的时候,
它会写一个 pid 到 /var/run/redis.pid 文件里面
supervised no 和操作系统相关参数, 可以设置通过 upstart 和 systemd 管理 Redis 守护进程, centos 7以后都使用 systemd
pidfile /apps/redis/run/redis_6379.pid pid 文件路径
loglevel notice 日志级别
logfile "/apps/redis/logs/redis_6379.log" 保存redis运行时的日志路径
databases 16 #设置 db 库数量,默认 16 个库
always-show-logo yes #在启动 redis 时是否显示 logo
save 900 1 #在 900 秒内有一个键内容发生更改就出就快照机制
save 300 10 #在 300 秒内有10个键内容发生更改就出就快照机制
save 60 10000 #在 60 秒内有1000个键内容发生更改就出就快照机制
stop-writes-on-bgsave-error no #快照出错时是否禁止 redis 写入操作,一定要关闭,要收集日志,多看看
rdbcompression yes #持久化到 RDB 文件时,是否压缩, "yes"为压缩, "no"则反之,要打开
rdbchecksum yes #是否开启 RC64 校验,默认是开启,要打开
dbfilename dump_6379.rdb #快照文件名
dir /apps/redis/data #快照文件保存路径
MASTER--SLAVE
slave-serve-stale-data yes #当从库同主库失去连接或者复制正在进行,从机库有两种运行方式: 1) 如果 slave-serve-stale-data 设置为 yes
(默认设置),从库会继续响应客户端的读请求。 2) 如果 slave-serve-stale-data 设置为 no,除去指定的命令之外
的任何请求都会返回一个错误"SYNC with master inprogress"。一般设置为yes
slave-read-only yes #是否设置从库只读,默认yes
repl-diskless-sync no #是否使用 socket 方式复制数据, 目前 redis 复制提供两种方式, disk 和 socket, 如果新的 slave 连上来或者重连的
slave无法部分同步,就会执行全量同步,master 会生成 rdb 文件, 有2 种方式: disk 方式是 master 创建一个新的进程
把 rdb 文件保存到磁盘,再把磁盘上的 rdb 文件传递给 slave, socket 是 master 创建一个新的进程,直接把 rdb 文件
以 socket 的方式发给 slave, disk 方式的时候,当一个 rdb 保存的过程中,多个 slave 都能共享这个 rdb 文件,
socket 的方式就是一个个 slave顺序复制, 只有在磁盘速度缓慢但是网络相对较快的情况下才使用 socket 方式, 否则使用
默认的 disk方式
repl-diskless-sync-delay 5 #diskless 复制的延迟时间, 设置 0 为关闭,一旦复制开始还没有结束之前,master节点不会再接收新 slave 的复制请求, 直到下一次开始
repl-ping-slave-period 10 #slave 根据 master 指定的时间进行周期性的 PING 监测
repl-timeout 60 #复制链接超时时间,需要大于 repl-ping-slave-period, 否则会经常报超时
repl-disable-tcp-nodelay no #在 socket 模式下是否在 slave 套接字发送 SYNC 之后禁用 TCP_NODELAY,如果你选择“yes”Redis 将使用更少的
TCP 包和带宽来向 slaves 发送数据。但是这将使数据传输到 slave上有延迟, Linux 内核的默认配置会达到 40 毫秒,
如果你选择了 "no" 数据传输到 salve 的延迟将会减少但要使用更多的带宽
repl-backlog-size 1mb #复制缓冲区大小, 只有在 slave 连接之后才分配内存。
repl-backlog-ttl 3600 #多次时间 master 没有 slave 连接,就清空 backlog 缓冲区。
replica-priority 100 #当 master 不可用, Sentinel 会根据 slave 的优先级选举一个 master。最低的优先级的 slave,当选 master。而配置成 0,永远不会被选举。
requirepass foobared #设置 redis 连接密码
rename-command #重命名一些高危命令
maxclients 10000 #最大连接客户端
maxmemory #最大内存, 单位为 bytes 字节,8G内存的计算方式 8(G)*1024(MB)*1024(KB)*1024(Kbyte),需要注意的是 slave 的输出缓冲区是不计算在 maxmemory 内。不超过物理内存的一半
appendonly no #是否开启 AOF 日志记录, 默认 redis 使用的是 rdb 方式持久化,这种方式在许多应用中已经足够用了。但是 redis 如果中途宕机,
#会导致可能有几分钟的数据丢失,根据 save 来策略进行持久化,Append Only File 是另一种持久化方式,可以提供更好的持久化特性。
#Redis 会把每次写入的数据在接收后都写入 appendonly.aof 文件,每次启动时 Redis 都会先把这个文件的数据读入内存里,
#先忽略 RDB 文件。
appendfilename "appendonly_6379.aof" #AOF 文件名
appendfsync everysec #aof 持久化策略的配置,no 表示不执行 fsync,由操作系统保证数据同步到磁盘,always 表示每次写入都执行 fsync,以保证
#数据同步到磁盘,everysec 表示每秒执行一次 fsync,可能会导致丢失这 1s 数据。
no-appendfsync-on-rewrite no #在aof rewrite期间,是否对 aof 新记录的 append 暂缓使用文件同步策略,主要考虑磁盘IO开支和请求阻塞时间。
#默认为 no,表示"不暂缓",新的 aof 记录仍然会被立即同步,Linux 的默认 fsync 策略是 30 秒,
#如果为 yes 可能丢失 30 秒数据, 但由于 yes 性能较好而且会避免出现阻塞因此比较推荐。
auto-aof-rewrite-percentage 100 #当Aof log增长超过指定百分比例时,重写log file, 设置为0表示不自动重写Aof日志,重写是为了
#使aof体积保持最小,而确保保存最完整的数据。
auto-aof-rewrite-min-size 64mb #触发 aof rewrite 的最小文件大小
aof-load-truncated yes #是否加载由于其他原因导致的末尾异常的 AOF 文件(主进程被 kill/断电等)
aof-use-rdb-preamble yes #redis4.0 新增 RDB-AOF 混合持久化格式,在开启了这个功能之后, AOF 重写产生的文件将同时包含 RDB 格式的内容和
#AOF 格式的内容,其中 RDB 格式的内容用于记录已有的数据,而 AOF 格式的内存则用于记录最近发生了变化的数据,
#这样 Redis 就可以同时兼有 RDB 持久化和AOF 持久化的优点(既能够快速地生成重写文件,也能够在出现问题时,快速地载入数据)。
lua-time-limit 5000 #lua 脚本的最大执行时间, 单位为毫秒
CLUSTER
cluster-enabled yes #是否开启集群模式,默认是单机模式
cluster-config-file nodes-6379.conf #由 node 节点自动生成的集群配置文件
cluster-node-timeout 15000 #集群中 node 节点连接超时时间
cluster-replica-validity-factor 10 #在执行故障转移的时候可能有些节点和 master 断开一段时间数据比较旧, 这些节点就不适用于选举为 master,
#超过这个时间的就不会被进行故障转移
cluster-migration-barrier 1 #一个主节点拥有的至少正常工作的从节点, 即如果主节点的 slave 节点故障后会将多余的从节点分配到当前主节点成为其新的从节点。
cluster-require-full-coverage no #集群槽位覆盖, 如果一个主库宕机且没有备库就会出现集群槽位不全, 那么 yes 情况下 redis 集群槽位验证
#不全就不再对外提供服务,而 no 则可以继续使用但是会出现查询数据查不到的情况(因为有数据丢失)。
SLOE LOG
slowlog-max-len 128 #记录多少条慢日志保存在队列,超出后会删除最早的, 以此滚动删除
#Slow log 是 Redis 用来记录查询执行时间的日志系统, slow log 保存在内存里面,读写速度非常快,因此你可以放心地使用它,不必担心因为开启 slow log 而损害 Redis 的速度。slowlog-log-slower-than 10000 #以微秒为单位的慢日志记录, 为负数会禁用慢日志, 为 0 会记录每个命令操作。
网友评论