消息中间件—RabbitMQ(集群监控篇1)

作者: 癫狂侠 | 来源:发表于2018-05-28 14:27 被阅读244次

    摘要:任何没有监控的系统上线,一旦在生产环境发生故障,那么排查和修复问题的及时性将无法得到保证

    一、为何要对消息中间件进行监控?

    上线的业务系统需要监控,然而诸如消息队列、数据库、分布式缓存等生产环境的中间件系统也同样需要监控,否则一旦出现任何故障,排查和修复起来的时间和投入的人力成本都会大大增加,同时也不易利于日后进行问题原因的总结和复盘。
    对于消息中间件RabbitMQ集群来说,没有监控能力更是灾难性的。假设,运行在生产环境上的中小规模RabbitMQ集群(总共有30个节点),出现部分节点服务不可用而导致生产者和消费者的业务工程无法正常发布和订阅消息(比如,Erlang虚拟机内存即将达到上限,服务器磁盘容量不足或者队列出现大量消息堆积),此时通过前置软负载HAProxy的Web页面又无法快速定位和排查出根本问题所在,那么研发和运维同事唯有对每台服务器的日志进行排查才可能发现并解决存在的问题。这种方式耗时又耗力,在生产环境对于故障响应时间和解决时间都非常重要,因此非常有必要对诸如像RabbitMQ这样的消息中间件进行各种参数的监控。

    二、如何对RabbitMQ集群监控?

    (1)RabbitMQ自带的Web管理端的插件

    RabbitMQ作为一款在金融领域应用非常成熟的消息中间件,必然少不了监控功能,RabbitMQ提供了Web版的页面监控(只在本地的浏览器端访问地址:http://xxx.xxx.xxx.xxx:15672/,默认端口号是15672)。Web监控页面如下图所示:

    RabbitMQ的Web监控截图.jpg
    RabbitMQ的Web监控截图2.jpg
    当然想要使用上面的RabbitMQ自带的Web监控页面,必须开启rabbitmq_management插件模式,需要在部署RabbitMQ实例的服务器的sbin文件夹下执行如下命令:
    #先启用rabbitmq_management插件
    ./rabbtimq-plugins enable rabbitmq_management
    #然后停止MQ服务再重启
    rabbitmqctl stop
    rabbitmq-server -detached
    

    如果只是在测试或生产环境小规模地应用RabbitMQ消息队列(比如业务并发访问量较低),那么简单地用用RabbitMQ自带的Web页面进行监控也就足够了。但是,如果对RabbitMQ的并发性能、高可用和其他参数都有一些定制化的监控需求的话,那么我们就有必要采用其他的方式来达到该目标。

    (2)RabbitMQ的tracing消息轨迹追踪

    对于金融级或者工业级应用场景来说,消息收发的可靠性永远是排在第一位的。消息队列集群可能因为各种问题(比如,生产者/消费者与RabbitMQ的服务器断开连接、Erlang虚拟机挂了、消息积压导致RabbitMQ内存达到最大阀值),难免会出现某条消息异常丢失或者客户端程序无法发送接收消息的情况。因此,这个时候就需要有一个较好的机制跟踪记录消息的投递过程,以此协助开发和运维人员进行问题的定位。

    (a)RabbitMQ的tracing原理

    RabbitMQ自带的tracing Log插件功能可以完成对于集群中各个消息投递/订阅的轨迹进行追踪。RabbitMQ tracing log的原理是将生产者投递给RabbitMQ服务器的消息,或者RabbitMQ服务器投递给消费者的消息按照指定格式发送至默认的交换器上。这个默认的交换器名称为“amq.rabbitmq.trace”,是一个topic类型的交换器。随后RabbitMQ会创建一个绑定了这个交换器的队列amq.gen队列。通过这个交换器,把消息的流入和流出情况进行封装后发送到amq.gen队列中,该队列会把消息流转的日志记录在相应的日志中。

    (b)启用RabbitMQ tracing来消息追踪

    这里可以使用rabbitmq-plugins enable rabbitmq_tracing命令来启动rabbitmq_tracing插件。

    [root@mq-testvm1 sbin]# rabbitmq-plugins enable rabbitmq_tracing
    The following plugins have been enabled:
      rabbitmq_tracing
    
    Applying plugin configuration to rabbit@rmq-broker-test-1... started 1 plugin.
    

    其对应的关闭插件的命令是:rabbitmq-plugins disable rabbitmq_tracing
    在Web管理界面 “Admin”右侧原本只有”Users”、”Virtual Hosts”以及”Policies“这个三Tab项,在添加rabbitmq_tracing插件之后,会多出”Tracing”这一项内容。同时,添加名称为“trace1”的消息追踪任务。

    RabbitMQ启用tracing_log后的UI界面.jpg
    在添加完trace之后,会根据匹配的规则将相应的消息日志输出到对应的trace文件之中,文件的默认路径为/var/tmp/rabbitmq-tracing。可以在页面中直接点击“Trace log files”下面的列表直接查看对应的日志文件。此外,在“Queues”队列一栏中可以看到又多了一个如下队列:
    RabbitMQ添加完tracing_log后出现的队列.jpg
    当通过Web UI页面发布一条消息后,对应的Tracing log的Text格式的消息日志参考如下:
    ================================================================================
    2018-05-27 8:16:34:545: Message published
    
    Node:         rabbit@rmq-broker-test-1
    Connection:   <rabbit@rmq-broker-test-1.2.10776.3>
    Virtual host: /
    User:         root
    Channel:      1
    Exchange:     
    Routing keys: [<<"pressure_1">>]
    Routed queues: [<<"pressure_1">>]
    Properties:   [{<<"delivery_mode">>,signedint,1},{<<"headers">>,table,[]}]
    Payload: 
    adfadfadf
    

    (3)采用RabbitMQ的HTTP API接口进行监控

    要构建独立的监控系统,可以使用RabbitMQ本身提供的Restful HTTP API接口来获取各种业务监控需要的实时数据。当然,这个接口的作用远不止于获取一些监控数据,也可以通过这些HTTP API来操作RabbitMQ进行各种集群元数据的添加/删除/更新的操作。
    下面列举了可以利用RabbitMQ的HTTP API接口实现的各种操作:

    HTTP API URL HTTP 请求类型 接口含义
    /api/connections GET 获取当前RabbitMQ集群下所有打开的连接
    /api/nodes GET 获取当前RabbitMQ集群下所有节点实例的状态信息
    /api/vhosts/{vhost}/connections GET 获取某一个虚拟机主机下的所有打开的connection连接
    /api/connections/{name}/channels GET 获取某一个连接下所有的管道信息
    /api/vhosts/{vhost}/channels GET 获取某一个虚拟机主机下的管道信息
    /api/consumers/{vhost} GET 获取某一个虚拟机主机下的所有消费者信息
    /api/exchanges/{vhost} GET 获取某一个虚拟机主机下面的所有交换器信息
    /api/queues/{vhost} GET 获取某一个虚拟机主机下的所有队列信息
    /api/users GET 获取集群中所有的用户信息
    /api/users/{name} GET/PUT/DELETE 获取/更新/删除指定用户信息
    /api/users/{user}/permissions GET 获取当前指定用户的所有权限信息
    /api/permissions/{vhost}/{user} GET/PUT/DELETE 获取/更新/删除指定虚拟主机下特定用户的权限
    /api/exchanges/{vhost}/{name}/publish POST 在指定的虚拟机主机和交换器上发布一个消息
    /api/queues/{vhost}/{name}/get POST 在指定虚拟机主机和队列名中获取消息,同时该动作会修改队列状态
    /api/healthchecks/node/{node} GET 获取指定节点的健康检查状态

    上面的HTTP API接口只是列举了RabbitMQ所支持的部分功能,读者可以参考RabbitMQ官方文档和访问http://server-name:15672/api/的Web页面来获取更多的其他接口信息。
    业务研发的同学可以使用Apache的httpcomponents组件—HttpClient或者Spring的RestTemplate组件生成并发送HTTP的GET/POST/DELETE/PUT请求至RabbitMQ Server,根据自己的业务目标完成相应的业务监控需求。
    下面是一个使用RabbitMQ Http API接口来获取集群监控参数的demo代码,主要使用HttpClient以及jackson来查询MQ集群的性能参数和存在的用户信息;

    public class MonitorRabbitMQDemo {
    
        //RabbitMQ的HTTP API——获取集群各个实例的状态信息,ip替换为自己部署相应实例的
        private static String RABBIT_NODES_STATUS_REST_URL = "http://ip:15672/api/nodes";
    
        //RabbitMQ的HTTP API——获取集群用户信息,ip替换为自己部署相应实例的
        private static String RABBIT_USERS_REST_URL = "http://ip:15672/api/users";
    
        //rabbitmq的用户名
        private static String RABBIT_USER_NAME = "root";
    
        //rabbitmq的密码
        private static String RABBIT_USER_PWD = "root123";
    
        public static void main(String[] args) {
            try {
                //step1.获取rabbitmq集群各个节点实例的状态信息
                Map<String, ClusterStatus> clusterMap =
                        fetchRabbtMQClusterStatus(RABBIT_NODES_STATUS_REST_URL, RABBIT_USER_NAME, RABBIT_USER_PWD);
    
                //step2.打印输出各个节点实例的状态信息
                for (Map.Entry entry : clusterMap.entrySet()) {
                    System.out.println(entry.getKey() + " : " + entry.getValue());
                }
    
                //step3.获取rabbitmq集群用户信息
                Map<String, User> userMap =
                        fetchRabbtMQUsers(RABBIT_USERS_REST_URL, RABBIT_USER_NAME, RABBIT_USER_PWD);
    
                //step2.打印输出rabbitmq集群用户信息
                for (Map.Entry entry : userMap.entrySet()) {
                    System.out.println(entry.getKey() + " : " + entry.getValue());
                }
    
            } catch (IOException e) {
                e.printStackTrace();
            }
        }
    
        public static Map<String,ClusterStatus> fetchRabbtMQClusterStatus(String url, String username, String password) throws IOException {
            Map<String, ClusterStatus> clusterStatusMap = new HashMap<String, ClusterStatus>();
            String nodeData = getData(url, username, password);
            JsonNode jsonNode = null;
            try {
                jsonNode = JsonUtil.toJsonNode(nodeData);
            } catch (IOException e) {
                e.printStackTrace();
            }
            Iterator<JsonNode> iterator = jsonNode.iterator();
            while (iterator.hasNext()) {
                JsonNode next = iterator.next();
                ClusterStatus status = new ClusterStatus();
                status.setDiskFree(next.get("disk_free").asLong());
                status.setFdUsed(next.get("fd_used").asLong());
                status.setMemoryUsed(next.get("mem_used").asLong());
                status.setProcUsed(next.get("proc_used").asLong());
                status.setSocketUsed(next.get("sockets_used").asLong());
                clusterStatusMap.put(next.get("name").asText(), status);
            }
            return clusterStatusMap;
        }
    
        public static Map<String,User> fetchRabbtMQUsers(String url, String username, String password) throws IOException {
            Map<String, User> userMap = new HashMap<String, User>();
            String nodeData = getData(url, username, password);
            JsonNode jsonNode = null;
            try {
                jsonNode = JsonUtil.toJsonNode(nodeData);
            } catch (IOException e) {
                e.printStackTrace();
            }
            Iterator<JsonNode> iterator = jsonNode.iterator();
            while (iterator.hasNext()) {
                JsonNode next = iterator.next();
                User user = new User();
                user.setName(next.get("name").asText());
                user.setTags(next.get("tags").asText());
                userMap.put(next.get("name").asText(), user);
            }
            return userMap;
        }
    
        public static String getData(String url, String username, String password) throws IOException {
            CloseableHttpClient httpClient = HttpClients.createDefault();
            UsernamePasswordCredentials creds = new UsernamePasswordCredentials(username, password);
            HttpGet httpGet = new HttpGet(url);
            httpGet.addHeader(BasicScheme.authenticate(creds, "UTF-8", false));
            httpGet.setHeader("Content-Type", "application/json");
            CloseableHttpResponse response = httpClient.execute(httpGet);
    
            try {
                if (response.getStatusLine().getStatusCode() != 200) {
                    System.out.println("call http api to get rabbitmq data return code: " + response.getStatusLine().getStatusCode() + ", url: " + url);
                }
                HttpEntity entity = response.getEntity();
                if (entity != null) {
                    return EntityUtils.toString(entity);
                }
            } finally {
                response.close();
            }
    
            return StringUtils.EMPTY;
        }
    
        public static class JsonUtil {
            private static ObjectMapper objectMapper = new ObjectMapper();
            static {
                objectMapper.disable(DeserializationFeature.FAIL_ON_UNKNOWN_PROPERTIES);
                objectMapper.disable(SerializationFeature.FAIL_ON_EMPTY_BEANS);
            }
    
            public static JsonNode toJsonNode(String jsonString) throws IOException {
                return objectMapper.readTree(jsonString);
            }
        }
    
        public static class User {
            private String name;
            private String tags;
            @Override
            public String toString() {
                return "User{" +
                        "name=" + name +
                        ", tags=" + tags +
                        '}';
            }
                    //GET/SET方法省略
        }
    
        public static class ClusterStatus {
            private long diskFree;
            private long diskLimit;
            private long fdUsed;
            private long fdTotal;
            private long socketUsed;
            private long socketTotal;
            private long memoryUsed;
            private long memoryLimit;
            private long procUsed;
            private long procTotal;
            // 此处省略了Getter和Setter方法
            @Override
            public String toString() {
                return "ClusterStatus{" +
                        "diskFree=" + diskFree +
                        ", diskLimit=" + diskLimit +
                        ", fdUsed=" + fdUsed +
                        ", fdTotal=" + fdTotal +
                        ", socketUsed=" + socketUsed +
                        ", socketTotal=" + socketTotal +
                        ", memoryUsed=" + memoryUsed +
                        ", memoryLimit=" + memoryLimit +
                        ", procUsed=" + procUsed +
                        ", procTotal=" + procTotal +
                        '}';
            }
                    //GET/SET方法省略
        }
    

    运行上面的demo后可以看到输出的日志如下(demo中用httpclient仅仅为的是展示,真正开发中写的代码可以参考使用Spring RestTemplate,其为开发者进行了二次封装,可以一定程度提高开发效率):

    #输出测试环境所部署的10个节点的集群实例信息
    rabbit@rmq-broker-test-8 : ClusterStatus{diskFree=34474188800, diskLimit=0, fdUsed=46, fdTotal=0, socketUsed=2, socketTotal=0, memoryUsed=383752384, memoryLimit=0, procUsed=1200, procTotal=0}
    rabbit@rmq-broker-test-9 : ClusterStatus{diskFree=33215782912, diskLimit=0, fdUsed=34, fdTotal=0, socketUsed=0, socketTotal=0, memoryUsed=139520504, memoryLimit=0, procUsed=378, procTotal=0}
    rabbit@rmq-broker-test-6 : ClusterStatus{diskFree=37309734912, diskLimit=0, fdUsed=45, fdTotal=0, socketUsed=0, socketTotal=0, memoryUsed=144497072, memoryLimit=0, procUsed=387, procTotal=0}
    rabbit@rmq-broker-test-7 : ClusterStatus{diskFree=37314203648, diskLimit=0, fdUsed=45, fdTotal=0, socketUsed=0, socketTotal=0, memoryUsed=204729280, memoryLimit=0, procUsed=387, procTotal=0}
    rabbit@rmq-broker-test-4 : ClusterStatus{diskFree=36212776960, diskLimit=0, fdUsed=45, fdTotal=0, socketUsed=0, socketTotal=0, memoryUsed=136635624, memoryLimit=0, procUsed=387, procTotal=0}
    rabbit@rmq-broker-test-5 : ClusterStatus{diskFree=37313929216, diskLimit=0, fdUsed=46, fdTotal=0, socketUsed=2, socketTotal=0, memoryUsed=349737776, memoryLimit=0, procUsed=1206, procTotal=0}
    rabbit@rmq-broker-test-2 : ClusterStatus{diskFree=37315076096, diskLimit=0, fdUsed=42, fdTotal=0, socketUsed=0, socketTotal=0, memoryUsed=173172688, memoryLimit=0, procUsed=381, procTotal=0}
    rabbit@rmq-broker-test-3 : ClusterStatus{diskFree=37338624000, diskLimit=0, fdUsed=46, fdTotal=0, socketUsed=0, socketTotal=0, memoryUsed=88274008, memoryLimit=0, procUsed=387, procTotal=0}
    rabbit@rmq-broker-test-1 : ClusterStatus{diskFree=36990242816, diskLimit=0, fdUsed=45, fdTotal=0, socketUsed=0, socketTotal=0, memoryUsed=180700296, memoryLimit=0, procUsed=409, procTotal=0}
    rabbit@rmq-broker-test-10 : ClusterStatus{diskFree=33480851456, diskLimit=0, fdUsed=45, fdTotal=0, socketUsed=1, socketTotal=0, memoryUsed=126567928, memoryLimit=0, procUsed=792, procTotal=0}
    
    #输出RabbitMQ集群中的用户元数据(包含用户名和Tag标签)
    root : User{name=root, tags=administrator}
    guest : User{name=guest, tags=administrator}
    

    三、具备监控能力的RabbitMQ集群设计

    上面介绍了三种不同的方式来对RabbitMQ集群进行监控,其实本质上来说,第一种和第三种方式是一致的,细心的同学会发现RabbitMQ的Web UI是定期执行刷行动作,向部署的实例发送HTTP GET/POST/PUT等相应的请求。
    其中第一种能够监控的范围相对有限,更适合小众化地使用;第二种tracing log方式能够很好的监控消息投递和接收的轨迹,但是多少对集群性能有所损耗,在实际压测中发现这种方式会导致节点大量内存消耗,其生成的log日志也会影响磁盘的IO,因此只限于在开发和测试环境调试时使用;而第三种使用HTTP API监控则能够根据开发者的业务需求自定义监控范围,对于监控数据的精度也能够通过调整调用HTTP API的间隔来实现。因此,这里作者较为推荐使用第三种方式来对大规模的RabbitMQ集群进行监控。


    RabbitMQ小规模集群的架构设计图(附加了监控部分).png

    这里给出了带有监控功能的RabbitMQ集群架构设计图,对于集群部署的原理和软负载等内容都在上一篇《消息中间件—RabbitMQ(集群原理与搭建篇)》中有详细的阐述,图中作者自设计了一个MQ-Cluster-Agent工程用于监听RabbitMQ集群的状态,其中主要通过调用HTTP API接口来查询获取集群元数据。随后,每隔一定周期将这些监控数据push至Kafka集群中。后台的监控控制台工程可以使用Kafka stream流处理方式对Kafka消息队列中的准实时数据进行一定的业务加工,随后生成业务方需要的监控报表。

    四、总结

    本文主要详细介绍了为何需要对MQ消息中间件进行监控,以及监控RabbitMQ集群的三种主要方法,并最后给出了一种具备监控能力的RabbitMQ集群架构设计。限于篇幅原因,对于图中采用agent完成对集群进行准实时监控的设计方法以及使用Kafka完成流处理的方式将在后续的篇幅2中进行详细介绍。限于笔者的才疏学浅,对本文内容可能还有理解不到位的地方,如有阐述不合理之处还望留言一起探讨。

    相关文章

      网友评论

      • 大胖子与小胖子:感谢分享,写的非常详细,看完收获很多。有两个问题请教一下:
        1、在后面的介绍监控报表文章中,是否可以分享一下监控的报表有哪些,是否包括一段时间内处理了多少mq消息,多少成功,多少失败的统计?
        2、在架构图中,没有看到有对发送失败或者消费失败时的处理,是否也可以分享下。
        非常感谢!
        癫狂侠:@大胖子与小胖子 对于(1)问题,后面写监控报表时候会对时间区间内处理多少MQ消息,成功率多少,如何统计都会写的详细一些的;对于(2)问题,异常处理和消费失败这块内容会在后面补充的架构图里面继续介绍的;另外,多提一句,如果是想从MQ内部本身来研究和了解的话,还是建议使用开源的Kafka和RocketMQ了,rabbitmq可靠性虽然不错,但是其基于erlang写的,国内这块的资料和社区不是很丰富。相反,Java和scala的语言比较普及,方便大家学习Kafka和RocketMQ的源码;可以从MQ的内部了解其原理部分~
      • 无名丶小辈:大神,你的下一章呢?
        癫狂侠:@无名丶小辈 后面会更新,不过时间会长一些,目前在研究RocketMQ,可以看看我的RocketMQ文章哈

      本文标题:消息中间件—RabbitMQ(集群监控篇1)

      本文链接:https://www.haomeiwen.com/subject/iokujftx.html