美文网首页互联网架构
每秒50W笔交易,阿里双十一,架构如何优化到极致

每秒50W笔交易,阿里双十一,架构如何优化到极致

作者: 程序花生 | 来源:发表于2020-11-09 13:46 被阅读0次

    2019 天猫双 11 交易峰值创下新纪录,达到 54.4 万笔/秒,是 2009 年第一次双 11 的1360倍。

    绚丽数字背后,是架构的极致优化。

    阿里双十一是典型的电商秒杀系统,这里我们总结几种常见的高并发场景:

    电商秒杀,并发量极高,商品SKU丰富,系统的瓶颈在商品、订单的读写;

    Feed流业务,像微博等,系统性能瓶颈在于热点数据的读并发请求;

    IM业务,用户点对点,数据读写均匀,数据访问冲突较小;

    从业务场景和挑战难度上,电商秒杀难度最大。那么对于双十一这种场景,业务架构和系统架构上需要如何优化呢?

    交易系统常见的整体架构

    用户发起(浏览器/APP),最上层,面向用户

    业务层,对用户请求进行业务逻辑判断,校验

    核心系统层,订单服务、商品服务,提供交易的核心逻辑与数据访问

    基于这个架构,架构师们应该如何优化?

    主要有:

    做好链路流量过滤拦截

    充分利用缓存高性能

    提前进行容量规划

    优秀的架构设计

    一、链路流量过滤拦截

    电商高并发之所以挂,大部分原因是请求压力落到了数据层,数据读写锁冲突严重。交易对数据一致性要求高,进一步导致了响应耗时高,导致上层所有请求超时,最终服务宕机。

    双十一属于秒杀,瞬时读写高并发场景。此时我们可以采用哪些业务手段:

    用户请求层面,限制用户x秒内只能提交一次,从而降低系统负载;

    双十一提前加购物车,将商品库存扣除,将交易流程变短,对数据写入时间尽可能分散;

    业务折中,比如不同的场次,将交易分散到全天;

    服务熔断降级,当系统流量大于承载能力时,抛弃部分流量保证系统整体稳定性。

    PS. 大家双十一剁手,遇到服务器开小差的页面提示。

    二、充分利用缓存

    业务系统,大多是读多写少场景:

    商品的查询,读请求,量大

    购物车的查询,读请求,量大

    添加购物车、下单和支付,写请求,相比于读请求,量小

    因此利用缓存的高性能,将99%读请求拦截在数据库之外,保证数据库的高可靠,是我们常用的方案。

    三、提前容量规划

    互联网企业,针对节日对流量进行预估。需要通过流量来预判机器是否扩容,数据库是否分库。这些都是架构师必备的系统容量规划的能力。

    容量规划的核心是QPS预估,以及单机承载能力评估。

    QPS预估有很多方法,最常用的就是业务预估

    历年双十一交易额曲线

    通过历史的流量,可以很好的预测当前的QPS,从而提前布局架构升级。比如阿里每年的成交都以”非常优美“的曲线增长。

    如何评估一个业务,一个服务单机能的极限QPS呢?

    答:真实线上环境的全链路压力测试。

    四、优秀的架构设计

    通过以上的做法,我们能大大提高节日下高并发下的架构性能。但是一个完整的电商后台,我们还需要更多的架构设计,比如同步、异步模式的灵活运用。

    传统的架构,交易和物流进行耦合,但是高级架构师会引入消息中间件,将同步的物流单创建,转化为消息发送,异步创建物流单,大大提高了交易核心的稳定性。

    相关文章

      网友评论

        本文标题:每秒50W笔交易,阿里双十一,架构如何优化到极致

        本文链接:https://www.haomeiwen.com/subject/qmplbktx.html