美文网首页Java服务端面试
全文搜索痛点:数据同步

全文搜索痛点:数据同步

作者: 十五倍压枪 | 来源:发表于2019-01-30 17:19 被阅读16次

    开篇吐槽

    在做搜索的过程中,最痛苦的从来都不是和全文索引,和什么solr/elasticsearch之间的战斗。其实对于大多数问题来说,当个“谷歌工程师”完全能应付平时的工作需求。常规的错误直接贴谷歌框一查基本就心里有数了,API怎么用贴谷歌框看一眼也基本清楚。但是最为头疼和麻烦的事还是数据同步这个问题。

    问题背景

    通常情况下,业务数据的落地方式一般会选择关系型数据库,比如mysql,oracle等产品。此类产品经过了长久的时间考验,在容灾,主从,性能,安全等等方面都有着非常全面的解决方案。简单的说,很难有前人没有遇到过的场景,解决不了的问题了。
    但是毕竟关系型数据库有着局限性,在设计的初衷上就不是为了解决全文搜索这种场景,此时需要像solr/elasticsearch这样的lucene衍生产品来解决此类问题。像这两种产品,某种意义上,他们就是“非关系型数据库”。和关系型数据库的行式存储不同,主要是以列式存储的方式来存储,在字段为空的时候不会占用空间,牺牲高一致性,换取获得可用性或可靠性。
    啰啰嗦嗦一大堆,其实就是为了说明,大部分站内搜索的构建,都是需要面对mysql(oracle,postgres)->lucene(solr,elasticsearch)这样一个过程。那么问题就来了:

    怎么能保证两边介质的数据一致性?

    没有现成的解决方案可以解决一次性完成这个过程的方案。在过去的经验中主要的解决方案主要如下

    • 实时数据:服务端将埋点日志写入kafka队列中,由进程一消费队列后的数据并写入mongo做为索引库备份,再由进程二定时将数据写入elasticsearch
    • 历史数据: 编写程序一次性读取所有mysql库数据后写入elasticsearch,数据mapping自定义_id,id相同的情况下会覆盖。
      如下图所示:


    问题描述

    这么做目前会带来几个很难解决的问题:

    1. 数据丢失:数据流向经过了多个环节,完全一致几乎是不可能的,比如在更新时候数据的补录,比如kafka本身数据遗失,一小部分数据丢失是难以避免的。
    2. 数据不一致:数据依赖服务端的埋点,而埋点无法涵盖所有的情况,比如服务端有“创建内容”的埋点,但是可能没有“修改内容”的埋点,时间一长,数据开始出现对不上的情况。
    3. 沟通困难:在上面的问题也说了,依赖服务端。但是部门之间的沟通问题本来就不是特别容易的事情,大家互相之间的排期也不一致,说白了产生依赖这种事情本身就是程序员尽量想要避免的状态。

    新的方案

    针对上面所提到的痛点,现在开始重新梳理业务,用新的方案来代替老的这一套数据同步方案。

    首先要提到的是一个新的产品,叫做canal

    当前搜索/推荐场景下增量数据均由前端业务端手工触发,其实现原理是当有更新数据到来,先更新主库(MySQL)然后发给后端业务端Kafka。随着后端业务端对增量消费需求的增加,会造成前端业务逻辑非常复杂,容易造成中间环节消息无故丢失,从而给后端搜索/推荐业务造成数据不同步等一系列问题。
    2010年开始,阿里公司开始逐步尝试基于数据库日志解析来捕获增量事件/数据,由此衍生出了增量订阅/消费的业务。

    简单的说,这是一个可以监控mysql库的curd事件(增删改查),监控事件来自于哪个库和哪张表,并由事件触发消息的产品。也就是说,我们转变了思路,直接对mysql数据库进行监控。将解析mysql的binlog后的结果封装成约定格式的消息生产到kafka队列,然后再写入mongo和elasticsearch。
    这样的一个方案优点在于化被动为主动,由我主动去监控我需要使用的库表字段,通过触发类型的机制来反馈给索引,对于以上的三个问题来说都得到了比较好的解决。比如数据不一致的情况,原本需要通过和服务端沟通埋点的增加,还需要跟随服务端的版本上线。当主动去监控mysql数据的时候,可以主动根据库表的变化来去访问。

    最大的好处,和别的部门“解耦”了

    参考下图


    程序设计可以参考我的这套代码
    incr-dump

    相关文章

      网友评论

        本文标题:全文搜索痛点:数据同步

        本文链接:https://www.haomeiwen.com/subject/eixcsqtx.html