美文网首页
kafka exactly once 批处理

kafka exactly once 批处理

作者: 木戎 | 来源:发表于2019-10-24 18:15 被阅读0次

    简介

    这几天,有个大兄弟问,如何实现 kafka 多线程批消费,目标:

    1. 确保 exactly once 语义
    2. 数据不丢失
    3. 支持定时同步,如15分钟/30分钟等
    4. 支持多线程(kafka 实际上不支持,但是可以通过多个 groupid+offset 控制实现)

    方案

    1. 上述目标1、2、3,简单实现可以通过存储消费对应的offset来处理,也就是进程启动时通过 seek 赋值,指定 partition 从哪个 offset 开始消费,此处使用zk存储
    2. 对于目标4,实现逻辑简单来说:
      a. 找到 offset begin 与 offset end
      b. 切分 offset 区间段,例如切分为5个:[0,5),[5,10),[10,15),[15,20),[20,23)
      c. 根据上述起5个线程,消费指定区间的数据,由于 kafka 同个groupid,并行消费的话,会发生 rebalance,类似这样的日志,具体原理就不分析了(详细看下groupid)


      image.png

      d. 避免这个问题,我们可以模拟多 groupid 消费,一个 groupid 消费一段【不用原生API消费的话,可以直接用 spark struct streaming,支持类该模式】

    核心代码

    1. 第一步,获取此时 kafka topic 信息,如拿到 topic partition 相关信息
    consumer.subscribe(Collections.singletonList(kafkaTopic));
    //        ConsumerRecords<String, String> records = consumer.poll(Duration.ofSeconds(5));
    consumer.poll(Duration.ofSeconds(5));
    
    // 获取offset信息
    List<PartitionInfo> partitionInfos = consumer.partitionsFor(kafkaTopic);
    List<TopicPartition> topicPartitions = new ArrayList<>();
    for (PartitionInfo partitionInfo : partitionInfos) {
        TopicPartition partition = new TopicPartition(kafkaTopic, partitionInfo.partition());
        topicPartitions.add(partition);
    }
    
    Map<TopicPartition, Long> topicPartitionMap = consumer.endOffsets(topicPartitions, Duration.ofSeconds(MAX_TIME_AWAIT_END_OFFSET, 0));
    Map<Integer, Long> partitionOffsetMap = new ConcurrentHashMap<>();
    topicPartitionMap.forEach((key, value) -> partitionOffsetMap.put(key.partition(), value > 0 ? value - 1 : 0L));
    LOG.info("end offsets: {}", partitionOffsetMap.toString());
    
    
    1. 第二步,找到缓存在 zk 的 partition offset 信息,并设置 partition 的 metadata
    if (! isConsumeUserOffset) {
        for (TopicPartition partition : topicPartitions) {
            Long persistOffset = getPersistOffset(partition.partition());
            if (persistOffset <= 0) {
                persistOffset = consumer.position(partition);
            }
            LOG.info("get persist offset, partition num {}: {}", partition.partition(), persistOffset);
            // 启动时使用上次offset,消费下一次,所以 +1
            OffsetAndMetadata offsetAndMetadata = new OffsetAndMetadata(persistOffset + 1);
            consumer.seek(partition, offsetAndMetadata);
        }
    } else {
        if (autoOffsetReset.equals("earliest")) {
            LOG.info("auto.offset.reset={}", autoOffsetReset);
            consumer.seekToBeginning(topicPartitions);
        }
        if (autoOffsetReset.equals("latest")) {
            LOG.info("auto.offset.reset={}", autoOffsetReset);
            consumer.seekToEnd(topicPartitions);
        }
        if (autoOffsetReset.equals("None")) {
            // topic各分区都存在已提交的offset时,从offset后开始消费;只要有一个分区不存在已提交的offset,则抛出异常, 忽略不用
            LOG.info("auto.offset.reset={}, it has so many problem, do nothing!", autoOffsetReset);
        }
    }
    
    1. 第三部,按批消费,并存储该批次每个 partition 最后一个 offset
    while (! isEndToConsume) {
        ConsumerRecords<String, String> records = consumer.poll(Duration.ofSeconds(5));
        LOG.info("consumer records length: {}", records.count());
        List<String> writeRecords = new ArrayList<>();
        for (ConsumerRecord<String, String> record : records) {
            // 替换非法字符
            String value = record.value().replaceAll("\n|\t|\r", "\001");
            try {
                Map<String, Object> fieldMap = JSON.parseObject(value, new TypeReference<Map<String, Object>>() {
                });
    
                JSONObject jsonObject = new JSONObject(fieldMap);
                writeRecords.add(jsonObject.toJSONString());
                cachePartitionOffsetMap.put(record.partition(), record.offset());
                recordCount ++;
    
            } catch (Exception e) {
                // 非 JSON 数据时直接跳出
                LOG.info("record parse to json exception: {}, record: {}" , e.getMessage(), value);
    //                    e.printStackTrace();
                continue;
            }
        }
     }
    
    1. 第四步,存储 partition offset 信息
    // 判断是否消费到最后的offset
    Map<Integer, Boolean> cacheHasConsumedPartitionMap = new ConcurrentHashMap<>();
    if (! cachePartitionOffsetMap.isEmpty()) {
        LOG.info("cache partition offset map: {}", cachePartitionOffsetMap.toString());
        for(Integer partition : partitionOffsetMap.keySet()) {
            if (cachePartitionOffsetMap.containsKey(partition)) {
                long cacheOffset = cachePartitionOffsetMap.get(partition);
                // 存储最新 offset,作为程序退出依据
                if (cacheOffset >= partitionOffsetMap.get(partition)) {
                    cacheHasConsumedPartitionMap.put(partition, true);
                }
            }
        }
        // 每个批次都存起来
        cachePartitionOffsetMap.forEach((key, value) -> setPersistOffset(key, value));
    }
    // 退出条件
    if (cacheHasConsumedPartitionMap.size() == partitionOffsetMap.size()) {
        isEndToConsume = true;
    }
    // 程序触发提交
    consumer.commitSync();
    

    运行

    java -cp /data/shopee/logtohdfs/logtohdfs-1.0-SNAPSHOT-jar-with-dependencies.jar com.xxx.bigdata.kafka.KafkaReader xxx_json.properties xxx

    image.png image.png
    image.png

    每个 partition 对应的 offset 都超过图一,程序开始初获取的offset,则退出这次调度

    待完善

    1. 多线程按批处理(目标4),其实也就是,基于获取全局的 topic 信息,分拆生成多个新的 consumer,暂不实现。

    相关文章

      网友评论

          本文标题:kafka exactly once 批处理

          本文链接:https://www.haomeiwen.com/subject/qamdvctx.html