美文网首页
使用skywalking对dubbo链路监控的一次问题排查

使用skywalking对dubbo链路监控的一次问题排查

作者: 郭彦超 | 来源:发表于2019-04-27 08:44 被阅读0次

    昨天上午,运维支持组的小伙伴向我反馈说他们的es集群出了故障,bulk写性能突然下降了,平均1s中只有几百条数据写入

    1、背景

    SkyWalking作为公司链路采集系统,实时采集线上各个服务的链路数据。采样率为全量,理论上TPS是监控接入工程所有的TPS总和。目前后端使用ES作为数据存储,链路数据保留7天。生产环境目前接入的工程有83个,ES的数据写入,和查询出现了明显的瓶颈。需要对ES做性能调优。

    2、现状

    • ES集群
      2台 2核 16g

    • 索引
      1、每个索引2分片、0副本,主要用到的是3个索引,分别是:global_trace、segment、segment_duration
      2、索引数据在ES端保存7天,SkyWalking每5分钟定时删除7日前的数据
      3、索引大小:
      global_trace: 150G
      segment: 222G
      segment_duration: 150G

    • 单索引查询分析
      global_trace:查询 2 个分片中用的 2 个. 724450976 命中. 耗时 6.499 秒
      segment_duration:查询 2 个分片中用的 2 个. 788681707 命中. 耗时 7.662 秒
      segment:查询 2 个分片中用的 2 个. 1304838269 命中. 耗时 11.767 秒

    3、主要问题

    • SkyWalking 定时删除堆积

    Skywalking的数据TTL策略是通过线程定时调用ES API条件删除历史数据。目前配置是:链路数据存放7天,每5分钟删除7天前的数据。由于ES删除缓慢,导致数据堆积。恶性循环下导致本来设置的TTL时间为90分钟,结果却堆积了近5天数据。目前直接把TTL时间改为了7天,数据删除依然缓慢,几乎没有删除掉,导致数据堆积越来越多。

    Skywalking的TTl操作是通过 delete_by_query的方式实现的,这种操作通过全表扫描的方式寻找满足条件的数据,数据体量大了之后非常消耗性能,通过观察监控发现CPU利用率一直处于100%状态,基本没有空闲资源处理其它请求。
    做法时禁掉TTL操作,改为凌晨低峰时期删除,优化后的cpu利用率维持在80%-90%。

    • bulk写性能低

    TPS吞吐量估算为:800-1800,针对每分钟5w次的写入完全hold不住

    bulk写入性能低的一个原因是受delete_by_query的方式影响,解决了上面那个问题后,bulk性能明显提升不少,但依然无法满足大量数据实时写入的需求,那么还有哪些操作可以优化呢?
    1、增大索引buffer;indices.memory.index_buffer_size: 20%
    2、增大刷新间隔;index.refresh_interval:120s
    3、异步写translog; index.translog.durability:async
    4、增大CPU核数,提升并发处理能力
    5、使用SSD硬盘或者将单块机械硬盘改为多块使用

    • Skywalking整体性能缓慢

    Skywalking底层逻辑复杂,会涉及到大量索引关联与聚合操作,每次看板加载都在5秒以上。

    官方建议单分片大小合理的区间值是20g~50G,上面3个索引的大小明显超出了这个范围,优化建议:
    1、扩大索引分片数量
    2、实现按天拆分索引
    3、删除7天之前的索引而不是使用delete_by_query
    4、增加服务器数量,对索引进行冷热数据分离,不经常使用的索引可以降低分片数量
    5、非当日索引强制合并segment段为1

    3、4、5基于条件2

    相关文章

      网友评论

          本文标题:使用skywalking对dubbo链路监控的一次问题排查

          本文链接:https://www.haomeiwen.com/subject/lanagqtx.html