服务全链路压测设计

作者: Real_man | 来源:发表于2019-06-17 22:20 被阅读18次

    在服务数量增多到一定程度,出问题的可能性越来越大,现在各种常见的架构手段,高可用手段都是为了提升系统的可用性,给用户提供更好的体验。而全链路压测则相当于对服务进行一次体检,了解当前系统的状况

    定义:基于线上环境和实际业务场景,通过模拟海量的用户请求,来对整个系统链路进行压力测试。

    目的:

    • 验证新功能的稳定性
    • 验证峰值流量下服务的稳定性和伸缩性
    • 对线上服务进行更准确的容量评估
    • 找到系统瓶颈并且进行优化

    压测极限标准

    • load不超过 (机器核数* 0.6)
    • 网卡流量不超过网卡容量的0.6,超过的话可能延迟比较大
    • 请求超时不超过请求总量的十万分之一
    • QPS不低于预估的85%,否则需要优化,或者给出合理的解释

    压测方案

    为模拟更真实的环境,压测机器与线上机器同等配置,仿照线上机器的部署情况部署。压测数据尽可能采用线上真实数据。

    方案一

    复用线上环境压测,在低峰期,比如凌晨3点钟,回放读请求,写请求无法压测,因为写请求会导致数据污染。

    压测可以采用本地日常环境,或者采用线上环境:

    • 日常环境:要求低,如果想要效果真实,可以构建与线上服务一模一样的配套设施,缺点是成本高

    • 线上环境:完全采用线上环境,测量机器的抗压能力,流量逐渐的分配到越来越少的服务器上,观察10分钟以上,直到服务器处理的极限。

      • 需要强大的压测平台
      • 立体监控系统
      • 服务治理平台
      • 可参加各大公司的全链路压测系统,在文末参考中。

    流量复用工具:TCPcopy

    方案二

    方案一很难对整个集群的进行压测,容易以偏概全,无法评估系统的真实性能。如果想做全链路压测:

    • 尽可能构造真实数据

    • 压测线上真实环境

    • 核心技术

      • 压测标识透传

        • 线程:采用InheritableThreadLocal父线程ThreadLocal中的变量传递给子线程,保证了压测标识的传递
        • 进程:存储在请求的Header中,做一些标识。
      • 压测服务隔离,不能因为压测影响正常服务

        • 根据业务需求在线上对整条链路创建一个压测分组,隔离出一批机器用于压测,在请求入口处,可以将请求进行分割
      • 压测数据隔离,不影响真实数据

      • 使用影子表进行数据隔离,线上使用同一个数据库,只是在写入数据的时候将数据写入到另外一张“影子表”中。

    1560781114870.png

    最后

    附录中给了很多互联网大厂的真实案例,可以一起学习

    参考

    相关文章

      网友评论

        本文标题:服务全链路压测设计

        本文链接:https://www.haomeiwen.com/subject/vfrtqctx.html