美文网首页我爱编程
kafka 0.10.1一些使用经验

kafka 0.10.1一些使用经验

作者: fsc2016 | 来源:发表于2018-03-23 18:14 被阅读0次

概述

  • 最近公司对老版本的kafka做升级,我们的集群很小,就三台机器。主要用来爬取数据实时任务传输用的。老版本用的0.8版本的,这个版本zookeeper的依赖还是比较大,每次kafka读取消费者topic偏移量都是从zk上读过来,连接消耗比较大。在kafka0.9版本后,就不依赖zk去记录offset的位置了,而是统一记录在broker端,通过一个内置的一个topic :_consumer_offsets (来记录各个消费组内格topic的位置。下面就集群搭建和使用过程中一些坑记录一下,记录下学习笔记

集群搭建

  • 集群搭建很简单,主要步骤网上都有,我这里就记录下自己主要配置
    zookeeper的

dataDir=/home/maijia/zookeeper-data-new --这个是zk日志目录
clientPort=2182 --配置的zk端口
initLimit=10
syncLimit=5
tickTime=2000
server.1=192.168.xx.xx:4888:5888
server.2=192.168.xx.xx:4888:5888 ---配置的zk选取端口,采用的是内网ip,只要互通都没有问题
server.3=192.168.xx.xx:4888:5888

  • 下面是kafka broker部分配置,其他都是采用默认

broker.id=4 --broker代号,这个唯一,不同机器不同即可
port=9093
listeners=PLAINTEXT://xx.xx.xx.xx:9093 --监听当台机器外网ip地址和kafka的端口。消费者和生产者都会连接这个地址进行通信
log.dirs=/home/maijia/kafka-logs-new
zookeeper.connect=192.168.xx.xx:2182,192.168.xx.xx:2182,192.168.xx.xx:2182
zookeeper.connection.timeout.ms=20000
delete.topic.enable=true --配置为true就是删除topic比较方便,命令行可直接删除无用topic

这里说明一下几个broker参数


image.png
  • 这几个和listeners只需要使用listeners,1和3是过时的,老版本出现过。第二个主要是把监听发布到zk上。总之这几个只需配置listeners这一个就行了。启动kafka时候需要解压包里bin下命令文件直接启动。具体命令行命令下面再说。我之前就是一直用老版本的bin目录下启动脚本配上上面的配置,消费者死活不成功。所以一定要版本一致。

kafka命令行使用

生产者和消费者爬坑

使用API maven地址

        <dependency>
            <groupId>org.apache.kafka</groupId>
            <artifactId>kafka-clients</artifactId>
            <version>0.10.1.0</version>
        </dependency>
  • 生产者还好,没有遇到大问题,采用java客户端api最好和集群的kafka的版本一致,这样防止出现一些莫名其妙的幺蛾子,生产者注意发送内容的key和value的字符格式解析,

key.serializer=org.apache.kafka.common.serialization.StringSerializer
value.serializer=org.apache.kafka.common.serialization.ByteArraySerializer
我这边是使用key采用string解析,value采用字符数组

消费者使用详细说下。新版本的消费者变化比较大
1.首先消费者现在可以支持手动提交offset,并且手动支持俩种方式同步和异步,我记得老版本好像都是只是自动提交。
2.消费者可以自己指定消费的分区和位置。以前老版本想改的,只能通过修改zk上对应节点值才能做到。
这俩点在使用中变化比较大

  • 下面说下具体的消费者配置,常规的
        props.put("enable.auto.commit", "true");
        //自动提交间隔
        props.put("auto.commit.interval.ms", 1000);
        props.put("max.poll.interval.ms",300000);
        props.put("max.poll.records",10);  
        //设置消费者心跳间隔
        props.put("heartbeat.interval.ms",3000);
        props.put("session.timeout.ms", 10000); 

使用过程中重点遇到问题消费者消费一段时间后,停止消费了,offset位置一直没发生变化。调了很久才知道,consumer.poll(100);消费者每次poll阻塞拉取的时候拉取的任务太多,然而数据处理程序太慢,俩次poll之间时间差超过max.poll.interval.ms这个配置里的值,broker就认为这个消费者挂了,就会重新把它从组内删除,并且重新平衡。后来通过设置max.poll.records这个值来设定每次poll拉取最多拉取任务就可以了。poll方法里的参数是每次拉取的阻塞时间ms。

下面具体配置说明一下

session.timeout.ms 这个值是会话超时时间,什么意思了,就是说如果发送心跳时间超过这个时间,broker就会认为消费者死亡了,默认值是10000ms,也就是10s(这个值一般默认没问题)
heartbeat.interval.ms 这个值是心跳时间,表示多长时间想broker报告一次,这个默认值3000ms,这个值官方推荐不要高于session.timeout.ms 的1/3(这个值默认没问题)
enable.auto.commit 是否启用自动提交。
auto.commit.interval.ms 自动提交间隔
max.poll.interval.ms 每俩次poll拉取数据时间间隔最大超时时间,超过这个值,broker就会认为你这个消费者挂了,并且重新平衡,这时候就消费不到信息了,如果你用kafka自带的命令行工具查看
sh kafka-consumer-groups.sh --bootstrap-server localhost:9093 --group group2 --describe 就会有这样的显示
Consumer group group2 is rebalancing
max.poll.records 这个值的意思是每次poll拉取数据的最大任务数,设置为5,就是一次poll里拉取5条偏移量数据
key.deserializer 序列化解析key值这个根据消费者配置而来org.apache.kafka.common.serialization.StringDeserializer
value.deserializer 序列化解析value值。org.apache.kafka.common.serialization.StringDeserializer
如果生产者或者消费者采用不同字符解析器,采取对应配置,例如 KafkaConsumer<String, String> consumer = new KafkaConsumer<>(props);
我这个comsumer使用的是string字符解析格式 还有ByteArraySerializer字符数组这种字符格式。org.apache.kafka.common.serialization都是在这个包里

  • 贴一下代码

        Properties props = new Properties();
        //服务器位置
        props.put("bootstrap.servers", "xxxxx");
        //消费组id
        props.put("group.id", "group3");
        //是否启动自动提交
        props.put("enable.auto.commit", "false");
        //自动提交间隔
        props.put("auto.commit.interval.ms", 1000);
        props.put("auto.offset.reset", "latest");
        props.put("max.poll.interval.ms",300000);
        props.put("max.poll.records",10);
        props.put("key.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");
        props.put("value.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");
        //props.put("value.deserializer", "org.apache.kafka.common.serialization.ByteArrayDeserializer");
        KafkaConsumer<String, String> consumer = new KafkaConsumer<>(props);
//        动态从分区获取消息,负载均衡的获取消息,如果想手动指定位置分区和offset,则使用consumer.assign();
         consumer.subscribe(Arrays.asList("fsc"));

//        手动指定方式从分区获取数据
//        TopicPartition p0=new TopicPartition("fsc",0);
//        TopicPartition p1=new TopicPartition("fsc",1);
//        TopicPartition p2=new TopicPartition("fsc",2);
//        List<TopicPartition> topicPartitionList=new ArrayList<TopicPartition>();
//        topicPartitionList.add(p0);
//        topicPartitionList.add(p1);
//        topicPartitionList.add(p2);
////        指定分区和offset方式消费数据,
//        consumer.assign(topicPartitionList);
////         调到所有分区最开始的位置
//        consumer.seekToBeginning(topicPartitionList);
////        调到分区最后的位置
//        consumer.seekToEnd(topicPartitionList);
////        指定分区和offset进行消费
//        consumer.seek(p2,40);
//        consumer.seek(p1,40);
        System.out.println("start consumering");
        while (true) {
            ConsumerRecords<String,String> records = consumer.poll(100);
            for (ConsumerRecord<String,String> record : records) {
//              在这里进行插入数据库操作,数据在valus里的json格式
                System.out.println("分区:"+record.partition()+" offset:"+record.offset()+"key:"+record.key());
//              同步提交     
                consumer.commitSync();
            }
        }

记录完毕

相关文章

  • kafka 0.10.1一些使用经验

    概述 最近公司对老版本的kafka做升级,我们的集群很小,就三台机器。主要用来爬取数据实时任务传输用的。老版本用的...

  • 八、Kafka生产者调优

    Kafka producer config (Kafka 0.10.1 Documentation) 1. 基本...

  • Kafka官方文档中文版(还未全部翻译完)

    由于目前作者使用的 kafka 版本是 0.10.1,因此本章翻译以0.10.1版本的官方文档进行翻译,官方原文地...

  • Kafka-0.10.1配置

    Kafka0.10.1 配置 主要配置 可以执行以下命令查看主要配置grep '^[a-z]' $KAFKA_HO...

  • Kafka学习之路

    kafka当前的版本是0.10.1新增加的新特性还是很多的,使用0.8.×的同学,可以多关注下了。原文地址:htt...

  • Kafka升级

    kafka升级 Upgrading from 0.8.x, 0.9.x, 0.10.0.x, 0.10.1.x o...

  • kafka使用经验

    当consumer重平衡时,可能导致重复消费,如:consumer1拉取了100数据,当消费过程中服务停掉,就会重...

  • kafka0.10.1版本

    啥也不说了 ,两个月的时间在这个问题上跌了两个跟头。 第一个跟头:线上kafka是1.0,我编译代码用的0.10....

  • kafka(二)

    上一篇文章我们介绍了kafka基本概念和使用配置,本文将讲解一些kafka在使用过程当中的一些问题。 kafka重...

  • Pulsar Kafka Client 简单介绍

    摘要 为了方便 Kafka 用户使用 Pulsar,Pulsar 对 Kafka Client 作了一些封装,让 ...

网友评论

    本文标题:kafka 0.10.1一些使用经验

    本文链接:https://www.haomeiwen.com/subject/atvxcftx.html