美文网首页
日志监控

日志监控

作者: 自天佑之吉无不利 | 来源:发表于2023-08-11 00:07 被阅读0次

    根据提取规则运行的位置可以分为两类做法,一个是在中心端,一个是在日志端。

    中心端就是把要处理的所有机器的日志都统一传到中心,比如通过 Kafka 传输,最终落到 Elasticsearch,指标提取规则可以作为流计算任务插到 Kafka 通道上,性能和实时性都相对更好。或者直接写个定时任务,调用 Elasticsearch 的接口查询日志,同时给出聚合计算函数,让 Elasticsearch 返回指标数据,然后写入时序库,实时性会差一些,但也基本够用。

    日志端处理是指提取规则直接运行在产生日志的机器上,流式读取日志,匹配正则表达式。对于命中的日志,提取其中的数字部分作为指标上报,或者不提取任何数字,只统计一下命中的日志行数有时也很有价值,比如统计一下 Error 或 Exception 关键字出现的次数,我们就知道系统是不是报错了。

    mtail 和 grok_exporter 是日志端处理工具的佼佼者,mtail 直接写正则,虽然可阅读性上稍微差了点儿,但是胜在逻辑处理能力,可以对提取的变量做运算,就像一门小语言,所以 mtail 把这些提取规则的文件叫做 program。grok_exporter 可以使用预定义的 pattern 名称配置匹配规则,更易读、易维护,运算方面则显得稍弱。

    此文章为8月Day10学习笔记,内容来源于极客时间《运维监控实战笔记 》,强烈推荐该课程

    相关文章

      网友评论

          本文标题:日志监控

          本文链接:https://www.haomeiwen.com/subject/wjzzpdtx.html