美文网首页druid 源码之旅收藏Druid
[druid 源码解析] 7 HighAvailableData

[druid 源码解析] 7 HighAvailableData

作者: AndyWei123 | 来源:发表于2021-11-15 23:42 被阅读0次

    关于 HighAvailableDataSource 的介绍,我们可以看一下官方文档相关的介绍,官方文档主要介绍如下几个作用:

    1. 节点路由 - 根据节点名称指定路由,随机路由,粘性随机路由
    2. 节点配置 - 纯手工配置节点,根据配置文件生成节点,根据ZooKeeper信息生成节点
    3. 节点健康检查 - 基于ValidConnectionChecker的节点检查机制,检查间隔时间可根据运行情况动态调整。
      我们接下来来测试一下这几部分的内容。

    路由节点

    首先我们来测试路由节点功能,路由节点需要我们配置多个数据源,然后注入到 HighAvailableDataSource 中,并最终生成  Datasource 。我们先来看一下配置类的信息 :

    @org.springframework.context.annotation.Configuration
    public class Configuration {
    
        @Autowired
        ApplicationContext applicationContext;
    
        @Autowired
        @Qualifier("dataSource1")
        DataSource dataSource1;
    
        @Autowired
        @Qualifier("dataSource2")
        DataSource dataSource2;
    
    
        @Bean(initMethod = "init")
        public DataSource dataSource1() {
            DruidDataSource druidDataSource = new DruidDataSource();
            druidDataSource.setUsername("root");
            druidDataSource.setPassword("root");
            druidDataSource.setUrl("jdbc:mysql://localhost:3306/information_schema?useSSL=false&useUnicode=true&characterEncoding=UTF-8");
            return druidDataSource;
        }
    
        @Bean(initMethod = "init")
        public DataSource dataSource2() {
            DruidDataSource druidDataSource = new DruidDataSource();
            druidDataSource.setUsername("root");
            druidDataSource.setPassword("root");
            druidDataSource.setUrl("jdbc:mysql://localhost:3306/information_schema?useSSL=false&useUnicode=true&characterEncoding=UTF-8");
            return druidDataSource;
        }
    
        @Bean(initMethod = "init", destroyMethod = "destroy")
        public DataSource dataSource() {
            HighAvailableDataSource druidDataSource = new HighAvailableDataSource();
            Map<String, DataSource> dataSourceMap = new HashMap<>();
            dataSourceMap.put("dataSources1", dataSource1);
            dataSourceMap.put("default", dataSource1);
            dataSourceMap.put("dataSources2", dataSource2);
            druidDataSource.setDataSourceMap(dataSourceMap);
            druidDataSource.setSelector("byName");
            return druidDataSource;
        }
    
        @Bean
        public SqlSessionFactoryBean sqlSessionFactory(DataSource dataSource) throws IOException {
            SqlSessionFactoryBean sqlSessionFactory = new SqlSessionFactoryBean();
            sqlSessionFactory.setDataSource(dataSource);
            sqlSessionFactory.setMapperLocations(applicationContext.getResources("classpath:mapper/*.xml"));
            return sqlSessionFactory;
        }
    }
    

    如图,我们首先要生成了两个 Datasource , 最后注入到 HighAvailableDataSource ,有些同学会注意到,这里不是使用 ObjectProvider 来获取多个数据源数据源,也是经过一位大佬的提醒,我才意识到这个问题,构造注入的方式是没法解决循环依赖的,而这里恰好有循环依赖的问题。

    循环依赖报错
    回到正题,我们最后初始化完成后,日志会打印这两个数据源初始化完成。接着我们就可以像使用同个数据源来使用他了。
    初始化

    根据ZooKeeper生成节点集合

    在开始Demo前,我们需要先在 zookeeper 注册数据源相关的节点,如下:

    ZookeeperNodeRegister register = new ZookeeperNodeRegister();
            register.setZkConnectString("127.0.0.1:2181");
            register.setPath("/ha-druid-datasources");
            register.init();
    
            List<ZookeeperNodeInfo> payload = new ArrayList<ZookeeperNodeInfo>();
            ZookeeperNodeInfo node = new ZookeeperNodeInfo();
            node.setPrefix("ha");
            node.setHost("127.0.0.1");
            node.setPort(3306);
            node.setDatabase("information_schema");
            node.setUsername("root");
            node.setPassword("root");
            payload.add(node);
            register.register("datasource1", payload);
    
    
            ZookeeperNodeRegister register2 = new ZookeeperNodeRegister();
            register2.setZkConnectString("127.0.0.1:2181");
            register2.setPath("/ha-druid-datasources");
            register2.init();
    
            List<ZookeeperNodeInfo> payload2 = new ArrayList<ZookeeperNodeInfo>();
            ZookeeperNodeInfo node2 = new ZookeeperNodeInfo();
            node2.setPrefix("ha");
            node2.setHost("127.0.0.1");
            node2.setPort(3307);
            node2.setDatabase("information_schema");
            node2.setUsername("root");
            node2.setPassword("root");
            payload2.add(node2);
            register2.register("datasource2", payload2);
            Thread.sleep(1000 * 60 * 60);
    

    我们注册了两个数据源信息,分别是本地的 3306 和 3307 端口,然后停止该线程一个小时,我们需要注意的是假如线程挂了,那么注册的临时几点也将消失,所以需要 sleep ,接下来我们到zk 上看一下注册节点的信息如下:


    zk

    zk 准备好后我们使用对数据源进行配置,如下:

    @Bean
        public SqlSessionFactoryBean sqlSessionFactory(DataSource dataSource) throws IOException {
            SqlSessionFactoryBean sqlSessionFactory = new SqlSessionFactoryBean();
            sqlSessionFactory.setDataSource(dataSource);
            sqlSessionFactory.setMapperLocations(applicationContext.getResources("classpath:mapper/*.xml"));
            return sqlSessionFactory;
        }
    
        @Bean(initMethod = "init", destroyMethod = "destroy")
        public DataSource dataSource(ZookeeperNodeListener zkNodeListener) {
            HighAvailableDataSource druidDataSource = new HighAvailableDataSource();
            druidDataSource.setNodeListener(zkNodeListener);
            druidDataSource.setSelector("random");
            druidDataSource.setPoolPurgeIntervalSeconds(60);
            druidDataSource.setAllowEmptyPoolWhenUpdate(false);
            return druidDataSource;
        }
    
        @Bean
        public ZookeeperNodeListener zkNodeListener() {
            ZookeeperNodeListener zookeeperNodeListener = new ZookeeperNodeListener();
            zookeeperNodeListener.setZkConnectString("localhost:2181");
            zookeeperNodeListener.setPath("/ha-druid-datasources");
            zookeeperNodeListener.setUrlTemplate("jdbc:mysql://${host}:${port}/${database}?useUnicode=true");
            zookeeperNodeListener.setPrefix("ha");
            return zookeeperNodeListener;
        }
    

    与之前使用两个 datasource 不同,这里是直接注入了一个zookeeperNodeListener,即不使用默认的随机 selector 。接着我们启动服务,可以看到以下信息,代表我们数据源初始化成功。

    log
    我们可以先测试一下当前数据是否可用,然后试着断开刚才 sleep 的线程,可以看到日志打印出如下信息,删除节点成功:
    log
    还有关闭数据源的日志如下:
    log
    我们可以看到这里只删除了 datasource1 , 我们重新进行测试,还是能正常获取到 datasource2 。这里主要是我们设置了如下属性,所以并不会删除所有的节点:
    druidDataSource.setAllowEmptyPoolWhenUpdate(false);
    

    还有最后一个部分就是 节点健康检查 ,这部分主要是一些配置相关的,就不进行细讲了,有兴趣的同学可以自己配置试一下。

    相关文章

      网友评论

        本文标题:[druid 源码解析] 7 HighAvailableData

        本文链接:https://www.haomeiwen.com/subject/ugyftrtx.html