2019 天猫双 11 交易峰值创下新纪录,达到 54.4 万笔/秒,是 2009 年第一次双 11 的1360倍。
绚丽数字背后,是架构的极致优化。
阿里双十一是典型的电商秒杀系统,这里我们总结几种常见的高并发场景:
电商秒杀,并发量极高,商品SKU丰富,系统的瓶颈在商品、订单的读写;
Feed流业务,像微博等,系统性能瓶颈在于热点数据的读并发请求;
IM业务,用户点对点,数据读写均匀,数据访问冲突较小;
从业务场景和挑战难度上,电商秒杀难度最大。那么对于双十一这种场景,业务架构和系统架构上需要如何优化呢?
交易系统常见的整体架构
用户发起(浏览器/APP),最上层,面向用户
业务层,对用户请求进行业务逻辑判断,校验
核心系统层,订单服务、商品服务,提供交易的核心逻辑与数据访问
基于这个架构,架构师们应该如何优化?
主要有:
做好链路流量过滤拦截
充分利用缓存高性能
提前进行容量规划
优秀的架构设计
一、链路流量过滤拦截
电商高并发之所以挂,大部分原因是请求压力落到了数据层,数据读写锁冲突严重。交易对数据一致性要求高,进一步导致了响应耗时高,导致上层所有请求超时,最终服务宕机。
双十一属于秒杀,瞬时读写高并发场景。此时我们可以采用哪些业务手段:
用户请求层面,限制用户x秒内只能提交一次,从而降低系统负载;
双十一提前加购物车,将商品库存扣除,将交易流程变短,对数据写入时间尽可能分散;
业务折中,比如不同的场次,将交易分散到全天;
服务熔断降级,当系统流量大于承载能力时,抛弃部分流量保证系统整体稳定性。
PS. 大家双十一剁手,遇到服务器开小差的页面提示。
二、充分利用缓存
业务系统,大多是读多写少场景:
商品的查询,读请求,量大
购物车的查询,读请求,量大
添加购物车、下单和支付,写请求,相比于读请求,量小
因此利用缓存的高性能,将99%读请求拦截在数据库之外,保证数据库的高可靠,是我们常用的方案。
三、提前容量规划
互联网企业,针对节日对流量进行预估。需要通过流量来预判机器是否扩容,数据库是否分库。这些都是架构师必备的系统容量规划的能力。
容量规划的核心是QPS预估,以及单机承载能力评估。
QPS预估有很多方法,最常用的就是业务预估
历年双十一交易额曲线
通过历史的流量,可以很好的预测当前的QPS,从而提前布局架构升级。比如阿里每年的成交都以”非常优美“的曲线增长。
如何评估一个业务,一个服务单机能的极限QPS呢?
答:真实线上环境的全链路压力测试。
四、优秀的架构设计
通过以上的做法,我们能大大提高节日下高并发下的架构性能。但是一个完整的电商后台,我们还需要更多的架构设计,比如同步、异步模式的灵活运用。
传统的架构,交易和物流进行耦合,但是高级架构师会引入消息中间件,将同步的物流单创建,转化为消息发送,异步创建物流单,大大提高了交易核心的稳定性。
网友评论