美文网首页技术架构
分布式锁之Redisson

分布式锁之Redisson

作者: 康俊1024 | 来源:发表于2019-06-01 15:29 被阅读52次

    Redisson

    如果在公司里落地生产环境用分布式锁的时候,一定是会用开源类库的,比如Redis分布式锁,一般就是用Redisson框架就好了,非常的简便易用。

    Redisson案例实现

    1. 加入jar包依赖
    <dependency>
       <groupId>org.redisson</groupId>
       <artifactId>redisson</artifactId>
       <version>3.11.0</version>
    </dependency>  
    
    1. 配置Redisson
    public class RedissonManager {
        private static Config config = new Config();
        //声明redisso对象
        private static Redisson redisson = null;
       //实例化redisson
     static{
         config.useSingleServer().setAddress("127.0.0.1:6379");
              //得到redisson对象
            redisson = (Redisson) Redisson.create(config);
    
    }
    
     //获取redisson对象的方法
        public static Redisson getRedisson(){
            return redisson;
        }
    }
    
    1. 锁的获取和释放
    public class RedissonLock {
        //从配置类中获取redisson对象
        private static Redisson redisson = RedissonManager.getRedisson();
        private static final String LOCK_TITLE = "redisLock_";
        //加锁
        public static boolean acquire(String lockName){
            //声明key对象
            String key = LOCK_TITLE + lockName;
            //获取锁对象
            RLock mylock = redisson.getLock(key);
            //加锁,并且设置锁过期时间,防止死锁的产生
            mylock.lock(2, TimeUnit.MINUTES);
            System.err.println("======lock======"+Thread.currentThread().getName());
            //加锁成功
            return  true;
        }
        //锁的释放
        public static void release(String lockName){
            //必须是和加锁时的同一个key
            String key = LOCK_TITLE + lockName;
            //获取所对象
            RLock mylock = redisson.getLock(key);
            //释放锁(解锁)
            mylock.unlock();
            System.err.println("======unlock======"+Thread.currentThread().getName());
        }
    }
    
    1. 使用CyclicBarrier模拟并发获取分布式锁
    /**
     * 使用CyclicBarrier模拟并发获取分布式锁
     */
    public class CucTest {
      public static void main(String[] args) {
            int N = 4;
            CyclicBarrier barrier  = new CyclicBarrier(N);
            for(int i=0;i<N;i++){   
                new Writer(barrier).start();
            }
            System.out.println("END");
        }
        static class Writer extends Thread{
            private CyclicBarrier cyclicBarrier;
            public Writer(CyclicBarrier cyclicBarrier) {
                this.cyclicBarrier = cyclicBarrier;
            }
     
            @Override
            public void run() {
                System.out.println("线程"+Thread.currentThread().getName()+"正在写入数据...");
                try {
                    Thread.sleep(5000);      //以睡眠来模拟写入数据操作
                    System.out.println("线程"+Thread.currentThread().getName()+"写入数据完毕,等待其他线程写入完毕");
                    cyclicBarrier.await();
                } catch (Exception e) {
                    e.printStackTrace();
                }
                System.out.println("所有线程写入完毕,继续处理其他任务...");
                String key = "test123";
                //加锁
                RedissonLock.acquire(key);
                System.out.println("线程"+ Thread.currentThread().getName() +"获得分布式锁");
                try {
                    Thread.sleep(2000);
                    RedissonLock.release(key);
                    System.out.println("线程"+Thread.currentThread().getName()+"释放分布式锁");
                } catch (Exception e) {
                    e.printStackTrace();
                }
            }
        }
    }
    
    1. 测试结果


      分布式锁测试结果.jpg

    Redisson实现原理

    底层原理图.png

    加锁机制

    现在某个客户端要加锁。如果该客户端面对的是一个redis cluster集群,他首先会根据hash节点选择一台机器。
    紧接着,就会发送一段lua脚本到redis上,那段lua脚本如下所示:

    if (redis.call('exists', KEYS[1]) == 0) then 
    redis.call('hset', KEYS[1], ARGV[2], 1);
    redis.call('pexpire', KEYS[1], ARGV[1]);
    return nil;
    end;
    if (redis.call('hexists', KEYS[1], ARGV[2]) == 1) then
    redis.call('hincrby', KEYS[1], ARGV[2], 1);
    redis.call('pexpire', KEYS[1], ARGV[1]);
    return nil;
    end;
    return redis.call('pttl', KEYS[1]);
    
    • 为啥要用lua脚本呢?
      因为一大坨复杂的业务逻辑,可以通过封装在lua脚本中发送给redis,保证这段复杂业务逻辑执行的原子性
    • 这段lua脚本是什么意思呢?
      KEYS[1]代表的是你加锁的那个key,比如说:String key = myLock;
      ARGV[1]代表的就是锁key的默认生存时间,默认30秒。
      ARGV[2]代表的是加锁的客户端的ID,类似于下面这样:8743c9c0-0795-4907-87fd-6c719a6b4586:1
    • 脚本含义
    1. 第一段if判断语句,就是用“exists myLock”命令判断一下,如果要加锁的那个锁key不存在的话,就进行加锁。(setnx)
      hset myLock 8743c9c0-0795-4907-87fd-6c719a6b4586:1 1
    2. 接着会执行“pexpire myLock 30000”命令,设置myLock这个锁key的生存时间是30秒。

    锁互斥机制

    如果客户端2来尝试加锁,执行了同样的一段lua脚本,会咋样呢?

    1. 第一个if判断会执行“exists myLock”,发现myLock这个锁key已经存在了。
    2. 接着第二个if判断,判断一下,myLock锁key的hash数据结构中,是否包含客户端2的ID,但是明显不是的,因为那里包含的是客户端1的ID。(重入锁的实现)
    3. 所以,客户端2会获取到pttl myLock返回的一个数字,这个数字代表了myLock这个锁key的剩余生存时间。比如还剩15000毫秒的生存时间。
    4. 此时客户端2会进入一个while循环,不停的尝试加锁。

    watch dog自动延期机制

    1. 客户端1加锁的锁key默认生存时间才30秒,如果超过了30秒,客户端1还想一直持有这把锁,怎么办呢?
      只要客户端1一旦加锁成功,就会启动一个watch dog看门狗,他是一个后台线程,会每隔10秒检查一下,如果客户端1还持有锁key,那么就会不断的延长锁key的生存时间。

    可重入加锁机制

    1. 那如果客户端1都已经持有了这把锁了,结果可重入的加锁会怎么样呢?
    • 第一个if判断肯定不成立,“exists myLock”会显示锁key已经存在了。
    • 第二个if判断会成立,因为myLock的hash数据结构中包含的那个ID,就是客户端1的那个ID,也就是“8743c9c0-0795-4907-87fd-6c719a6b4586:1”
    • 此时就会执行可重入加锁的逻辑,他会用:incrby myLock 8743c9c0-0795-4907-87fd-6c71a6b4586:1 1 通过这个命令,对客户端1的加锁次数,累加1。
    • 那个myLock的hash数据结构中的那个客户端ID,就对应着加锁的次数

    释放锁机制

    1. 执行lock.unlock(),就可以释放分布式锁,此时的业务逻辑也是非常简单的。就是每次都对myLock数据结构中的那个加锁次数减1。
    2. 如果发现加锁次数是0了,说明这个客户端已经不再持有锁了,此时就会用:“del myLock”命令,从redis里删除这个key。
    3. 另外的客户端2就可以尝试完成加锁了。
    • 综上所述:
      这就是所谓的分布式锁的开源Redisson框架的实现机制。

    Redis分布式锁的缺点

    • 其实上面那种方案最大的问题,就是如果你对某个redis master实例,写入了myLock这种锁key的value,此时会异步复制给对应的master slave实例。
    • 但是这个过程中一旦发生redis master宕机,主备切换,redis slave变为了redis master。
    • 接着就会导致,客户端2来尝试加锁的时候,在新的redis master上完成了加锁,而客户端1也以为自己成功加了锁。
    • 此时就会导致多个客户端对一个分布式锁完成了加锁。
    • 这时系统在业务语义上一定会出现问题,导致各种脏数据的产生。
    • 所以这个就是redis cluster,或者是redis master-slave架构的主从异步复制导致的redis分布式锁的最大缺陷:在redis master实例宕机的时候,可能导致多个客户端同时完成加锁。

    相关文章

      网友评论

        本文标题:分布式锁之Redisson

        本文链接:https://www.haomeiwen.com/subject/pftatctx.html