美文网首页分布式数据库(TiDB,Hbase,MongoDB)
【TiDB@丰巢】支付平台的迁移之旅

【TiDB@丰巢】支付平台的迁移之旅

作者: xiaodaoliu | 来源:发表于2019-11-21 11:01 被阅读0次

    因为本文是我第一次发表在 丰巢技术团队 公众号上,所以在简书上发表只能算是转载。

    丰巢第一次在生产环境实际使用TiDB,是在2018年,其场景是每天产生一亿条以上数据的推送平台,当时我们还发了一篇文章,被PingCAP官方收录:TiDB at 丰巢:尝鲜分布式数据库。这次,因为实际的项目需要,我们选择了QPS和数据一致性要求更高的支付平台,作为第二个迁移到TiDB上的项目。由于丰巢的所有支付,都会通过该平台产生,所以其稳定性和性能,都是重中之重了,而这次的迁移之旅,也就特别的漫长和曲折。

    1. 支付平台现状及问题

    在迁移TiDB之前,丰巢支付平台全部运行于MySQL之上,其基本情况如下:

    实例数量:4台物理机,4个Master

    数据库数量:40+个数据库

    重要表分表数量:500+表

    分库分表规则:用户ID

    数据总量:百亿级

    版本:5.6.37

    高峰时QPS(非双十一):7K+

    这在互联网行业,是很常规而古典的方案了,虽然够用,但是遇到复杂情况时,其实会有很多瓶颈点,详情如下:

    分库分表二次扩容

    MySQL的问题:之前的一次二次扩容的经历,当时从21个库以及核心表21张分表,扩展到41个库,核心表480张分表。数据迁移工具和业务适配都花了非常大的代价。

    TiDB的优势:分布式数据库,天然支持水平扩容。

    跨库转账数据一致性问题

    MySQL的问题:业务代码适配,最终一致性方案。极端情况下需要人工介入。

    TiDB的优势:底层Raft一致性协议,无需业务代码适配。

    非分库分表字段维度查询

    MySQL的问题:无法支持,只有通过将Mysql数据异步同步到如ES等数据库解决。

    TiDB的优势:存储和计算层分离,并能下推复杂计算到TiKV上执行。

    异构数据库

    MySQL的问题:开发工具同步数据到ES,数据变更和表结构变更等情况有时需要人工处理。

    TiDB的优势:只有一个数据库,无二次同步操作。

    在超大表上的ddl操作困难

    MySQL的问题:5.6.37版本的mysql在超大表上执行ddl操作非常消耗时间,严重浪费DBA的时间。

    TiDB的优势:支持在线ddl,无锁表风险,对于添加字段和长度扩展等操作非常快。

    ddl变更过于复杂,易出错

    MySQL的问题:重要的分表总量达到了几千张,每做一次ddl操作,都需要开发和DBA仔细核对脚本,严重浪费时间且容易出错。

    TiDB的优势:单表操作,简单且风险低。

    这些问题,是丰巢的支付平台,都是实际发生过的问题,相信其它用Mysql分库分表作为解决方案的中小型公司,都会遇到类似问题。尤其是异构数据库的问题,因为支付平台对于所有的订单和交易等信息按照用户id进行了分库分表的操作,这就使得一些基本的常规查询请求(非用户id维度),通过Mysql数据库无法提供服务,我们便添加了一套ElasticSearch集群提供这样的服务。在同时使用Mysql和ElasticSearch的过程中,数据延时和数据不一致的问题经常就会跳出来让我们难受一下。

    2. TiDB的优势

    为了寻求更好的解决方案,让支付平台更加稳健,我们再次把目光投向了TiDB,尝试做为支付平台的核心解决方案。相比于Mysql,其优势如下:

    安全的在线DDL操作:串行的在线ddl操作,无锁表风险,对于添加字段和长度扩展等操作非常快

    方便的水平弹性扩展:通过简单地增加新节点即可实现 TiDB 的水平扩展,按需扩展吞吐或存储,轻松松应对高并发、海量数据场景

    高度的MySQL兼容性:大多数情况下,无需修改代码即可从 MySQL 轻松迁移至 TiDB,分库分表后的 MySQL 集群亦可通过 TiDB 工具进行实时迁移

    完善的分布式事务:TiDB最大的优势,就是100% 支持标准的分布式ACID事务,用户无须过多关注回滚相关的琐事

    金融级别的高可用性:相比于传统主从(M-S)复制方案,基于 Raft 的多数派选举协议可以提供金融级的 100% 数据强一致性保证,且在不丢失大多数副本的前提下,可以实现故障的自动恢复(auto-failover),无需人工介入。对于单个TiKV和整个物理机故障在支付业务上我们都进行了模拟测试,最长的影响业务时长为1分钟

    基于这样的优势,加上我们对TiDB团队和实力的了解,加上之前推送平台的迁移经验,我们坚定的开始了迁移之路。

    3. 迁移之路

    3.1 标准步骤方案

    在支付平台迁移之初,我们就提出了TiDB迁移的标准化方案,支付平台在迁移的过程中,除了部分步骤是需要反复执行之外,大体上都是按照标准化方案来走的。

    如上图所示,我们没有采用 先切读流量到TiDB集群和双写 的方案,而是直接切换到TiDB之上。这主要是基于以下的几点原因:

    长期使用建立的信心:我们使用TiDB已经有半年了,对其稳定性有相当的信心

    加快迁移速度:减少业务系统的改造,双写是需要业务系统改造代码的

    一致性验证前置: 在灰度发布之前我们需要使用专门的业务压力测试工具进行一致性和压力验证

    外部安全性保障:数据比对贯穿于整个迁移的过程中,发现异常随时告警

    3.2 数据同步方案

    数据库迁移从来就不是容易的事情,为了让支付平台的数据,无缝的从Mysql迁移到TiDB,我们制定了如下数据同步策略和框架:

    由上图可知,我们的数据同步包括了三种同步机制:

    全量同步到TiDB集群

    借助开源工具mydumper和pingcap公司的工具loader来实现,为了不影响4个master,mydumper是从4个slave进行数据的拉取。因为支付平台的数据总量超过100亿,所以这个同步的过程是非常漫长的,要花费几十个小时,由于当时没有使用DM这样自动化的同步管理平台,这个过程是痛苦且漫长的。以后有这种类似mysql到TiDB的同步需求,我们都会使用DM来完成。

    实时增量同步

    使用pingcap公司的sync来实时读取mysql的binlog,增量同步数据到TiDB集群。

    数据实时回导到mysql

    为了让数据实时回导,我们研发了两个工具,来确保完全可靠:

    3.3 流量回放方案

    在一开始制定的迁移方案中,本来是没有流量录制和回放这个工具的。但是因为第一次迁移失败,就促使我们开发了这样的一个工具: DBReplay。其目的在于生产环境流量录制和回放,这是至关重要的一个工具。使用DBReplay,我们可以发现如下问题:

    是否有TiDB的问题;

    是否有负载均衡层面的问题;

    是否存在语句不兼容的问题;

    是否有慢sql的出现;

    从而可以在不正式切换生产的前提下,就能重复发现问题,对我们正式切换成功有很大的帮助。

    DBReplay的整体架构图如下:

    它具备下面的Feature:

    可以在网卡上抓取mysql的数据包

    解析mysql的协议

    mysql命令输出到文件

    在TiDB上回放:支持原速回放和倍速回放

    延迟和错误检测

    实时录制和回放

    一开始本着不重复造轮子的原则,想在开源领域找到一款合适我们的产品。但是经过多番调研,包括tcpcopy工具,它并不能满足丰巢的实际情况

    丰巢后台服务使用的都是长连接技术,tcpcopy只有等到下一次连接登录时才能完成实际的链路创建,这个在我们的环境中行不通,我们需要所有录制的信息都可以100%被回放;

    库名、表名和用户名密码等都发生了变化,tcpcopy等现有技术无法解决这个问题;

    在录制和回放的过程中,不但能够校验是否发生错误、响应延迟等,还能对response做校验;

    为了满足上面3个要求,丰巢开始了DBReplay的自研之路,我们选择了google开源的gopacket作为从数据链路层抓包的工具,在这个基础上封装完善了上面提到的功能。基于DBReplay工具,我们发现了如下的问题,并进行了修复:

    TiDB上线前停止服务几秒的时间

    产生原因:TiKV的一个bug

    解决方案:升级TiDB集群到2.1.16

    600秒超时报错

    产生原因:nginx_tcp_proxy_module 模块问题

    解决方案:升级nginx到1.17.1

    sql执行突然变慢

    产生原因:没有及时analyse table

    解决方案:使用工具每天执行3次analyse table

    每个整点10分,DBreplay有大量慢查询语句出现

    产生原因:原因是支付平台分了41个库,同时执行统计类语句

    解决方案:无需解决,迁移到TiDB后只执行一次

    DBreplay获取不到连接

    产生原因:nginx设置的最大连接数过小

    解决方案:调大最大连接数

    Error 1048: Column 'STATUS' cannot be null

    产生原因:语句执行顺序问题

    解决方案:无需解决

    600秒超时报错

    产生原因:一个超过50亿大表有一条没有索引的查询,mysql同样会存在问题

    解决方案:设置TiDB的max_execution_time为60秒

    Error 1146 

    产生原因:业务新增的表在TiDB中不存在

    解决方案:TiDB中增加相关表

    Error 9500: transaction is too large

    产生原因:TiDB对于大事务有限制

    解决方案:控制删除数据范围

    凌晨TiDB堵住

    产生原因:mysql41个库历史数据迁移,相当于同时对于TiDB发起了攻击

    解决方案:无需解决,迁移到TiDB后只执行一次

    列不存在

    产生原因:业务新增列

    解决方案:在TiDB中增加此列

    插入数据失败

    产生原因:字段长度做了变更

    解决方案:在TiDB中增加此字段的长度

    以上列举的问题,都是在使用DBReplay流量回放工具,回放暴露出来的问题,前3个问题后面会详细的分析。

    在实际的迁移过程中,会存在一些特殊的情况,超出了我们的掌控外围之外:例如,业务上新增了表和字段,我们没有办法靠人去对齐这些事情,dbreplay最大的价值就是能够覆盖这些业务逻辑的变化。在前面讲述标准化迁移方案里面,正因为有了DBReplay等工具的存在,我们才能放心的,不经过灰度直接全量切换到TiDB。

    3.4 灰度发布方案

    我们在制定灰度发布方案的时候,一开始在切流量的问题上有一定的讨论:

    只切一部分读流量到TiDB

    同时切读和写流量到TiDB

    如果只切读流量的话,主从之间有延迟,很难满足支付平台的数据一致性要求,并且业务上实现也很困难。最后我们选择了同时灰度读写流量到TiDB的方案。

    如上图所示,支付平台在进行适配灰度发布的过程中,需要具备以下几点的能力:

    可以通过配置中心快速的切换pay_0到pay_40的数据源

    通过dbmove反向同步,灰度发布到TiDB的数据库可以实时的切换回mysql

    需要支付平台业务代码适配灰度发布

    在支付平台切换TiDB的过程中,共灰度发布了四次:

    pay_0:第一次灰度,只灰度验证了业务最简单的0库,里面只有比较少量的业务数据。

    pay_0,pay_1:关于0库和1库会灰度两次,因为支付平台的0库和其它40个库存储的数据由所不同。

    pay_0,pay_1,pay_2,pay_3,pay_4,pay_5:第三次灰度的目的,是想在已经灰度验证完业务的基础上,给TiDB集群增加一些流量,尽量使得问题可以提前暴露出来。

    pay_0,pay_1:这次灰度是在第二次全量切换前的一次验证操作。

    3.5 快速回滚方案

    支付平台的回滚方案是建立在TiDB到MYSQL数据同步服务正常的基础之上的,回滚方案按照自动化程度分为两种:人工回滚和自动回滚,其中自动回滚需要借助自研工具DBSwitch来完成。 DBSwitch 这个工具的产生也是源于上次切换的失败,虽然上次切换TiDB的过程中,我们做了很多的保障措施,但是在实际问题发生的过程中,因为需要人去判断和操作,所以我们便做了DBSwitch这个工具,让系统去判断TiDB集群是否出现问题了,是否需要把数据库切换回MYSQL

    如上图所示,DBSwitch的Feature如下:

    独立于支付平台之外

    通过定时的调用支付平台的接口来判断TiDB集群是否已经不可用

    为了敢于放心切换,dbswitch会判断dbmove中未同步消息的数量

    通过更改配置中心的数据库开关来实现数据库的动态切换

    为保障连接池和线程池都能快速的得到释放,dbswitch会对支付平台进行重启操作

    4. 迁移的坑

    迁移TiDB的过程中,不可避免的会遇到一些坑,主要的大坑记录如下:

    4.1 全量数据迁移后TiDB集群停止响应

    这个问题是TiDB切换过程中遇到最大的一个问题,事后分析主要原因有两个:

    TiKV 2.1.9的Bug

    TiKV的一个已经解决的bug,我司当时TiDB的版本是2.1.9,当transfer leader时遇到了conf change时,会出现短暂的慢查询现象(连接会被TiDB占住一段时间):PR链接

    PR更改的核心的代码在 TiKV的raftstore/store/peer.rs中

    当region在transfer leader时,会先判断region是否在做conf change,如果已经做完并判断conf change的时间间隔,都满足条件后才允许进行transfer leader的操作。TODO: fix the transfer leader issue in Raft. 这句注释说明了pingcap公司未来会在raft协议层面去解决这个bug,目前的方法只是临时的解决方案。

    Nginx相关问题

    nginx在做tcp proxy时,会偶尔出现连接卡死的现象,只有到达超时时间,连接被kill后,此连接的业务才会恢复。我司之前使用的是第三方的nginx_tcp_proxy_module的模块。后来把nginx的版本升级为1.17.1并使用nginx官方的stream模块,此问题也解决了。

    4.2 SQL执行突然变慢

    在使用dbreplay进行流量回放的过程中,有一天早上所有的语句执行时间全部变慢了,分析发现是没有及时的对于经常使用的相关表做analyse,目前TiDB在analyse table时,还是比较保守,只有三个系统参数:tidb_auto_analyze_ratio、tidb_auto_analyze_start_time、tidb_auto_analyze_end_time, TiDB目前没有定时任务可以让触发analyse table的操作。详见代码:statistics/update.go

    在这里,建议各位使用TiDB的同学在生产环境中一定要有自己的analyse table机制。丰巢的做法是写了一个定时服务,每天定时调度支付平台3次,此服务支持分布式部署,可以接入多套TiDB集群,只要按照配置规则,即可完成指定集群指定表的analyse操作。

    4.3 事务的执行结果与预期不一致

    这个是支付业务在TiDB集群上并发冲突测试时发现的,这个也是TiDB的一个老生常谈的问题,主要原因是TiDB开启了显示事务的自动重试,大家可以通过查看系统变量:tidb_disable_txn_auto_retry的值来确定 。如果为on,则表示TiDB集群关闭了显示的事务重试机制,目前TiDB 3.0版本对于这个值的默认值已经设置为on了。关于禁止显示事务重试的代码在TiDB的session/session.go中。

    4.4 支付业务的定时任务执行失败

    这个是使用dbreplay回放出来的问题。原因是,支付平台会定期的delete某个表中的数据,因为TiDB中对于事务操作中的数据量有限制,delete数据过多,导致失败。

    上面的图来自于TiDB的官方文档,TiDB因为是分布式数据库,所以对于大事务会有比较多的限制,从官方文档来看,我们批量语句是违背了第三或第四条规则。但是一开始实际测试的值与官方文档的值又不一致,我们实际测试10万条左右是一个临界值,单表大于10万条则删除失败,提示:“9500 - transaction is too large”。为了搞清楚到底是10万还是30万,我们查阅了TiDB的源码,在store/tikv/2pc.go这个文件中找到了答案:

    kv.TxnEntryCountLimit的默认值就是30万,并且这个值虽然是在config.go中设置的,但是没有放开修改权限。我们又进行了一次测试,建了一个表,表的字段个数只有两个,并且都是bigint类型,最后证明事务中最大的处理行数就是30万条。我们之前的测试是因为违反了“键值对总大小不超过100MB”这条规则。在使用批量插入和批量删除语句时,尽量将大事务变为多个小事务,上生产环境之前,还是要测试一下再实际使用。

    5. 优化建议

    5.1 任务调度机制

    提这个建议主要是因为analyse table的需要,上面我们也提到了之前由于analyse table不及时,造成数据库的查询语句开始大量变慢的问题。为此我们还专门写了一个定时调度的服务,目前生产环境是每天执行3次相关表的analyse操作。但是写额外的服务,会存在下面几方面的问题:

    对于推广TiDB的团队成员要求有常规编程语言的能力:很多公司落地执行TiDB的角色是DBA,一般DBA不擅长用Java、golang等常用的编程语言,我们是用Java实现analyse的调度功能,很容易就选择了第三方的分布式调度框架。

    不便于监控:因为这个调度服务至关重要,就要提供额外的监控服务来对它的状态和任务的执行结果进行监控,增加了复杂度。

    容易遗漏:没有经验的人员在第一次使用的时候,容易把这个过程遗漏,遗漏后可能造成生产事故。

    5.2 回导机制

    在反向同步这个领域内,TiDB的drainer是支持目标数据库为Mysql的,但不支持目标数据库是多个mysql的情况。虽然DM系列的组件已经很容易的便把已经分库分表的mysql数据库聚合到了TiDB上,但是没有反向实时回导的功能。这个回导机制在刚刚切换的过程中是最后的保底手段,正如dbmove做的事情。

    6. 总结

    TiDB是一款非常棒的分布式关系数据库,它的社区活跃度、版本迭代速度、周边产品的完善程度等,都已经做的比较全面了,它在全球范围内有几百个Contributor,我们丰巢也几次对TiDB贡献了源码,后面我们会在内部培养更多的Contributor。

    这次我们选择支付平台来作为迁移到TiDB上的业务,就是想证明在丰巢所有的OLTP业务范畴内,我们是可以All in TiDB的。它对于丰巢的意义就在于,可以长期规划丰巢的数据库的选型和资源的投入,避免数据库产品使用的分裂和无效资源的投入。

    在支付平台迁移的过程中,我们对于TiDB的使用和迁移工具都有了一定程度的积累,对于丰巢所有跑在Mysql上的业务,都有信心可以快速的迁移到TiDB上来。希望未来能有更多关于TiDB的知识和大家一起分享。

    相关文章

      网友评论

        本文标题:【TiDB@丰巢】支付平台的迁移之旅

        本文链接:https://www.haomeiwen.com/subject/sjbzictx.html