业务场景
目前已经有一个kafka集群接收外部数据,但是由于某种原因要将业务迁移到新的集群,新的应用都要跑在新的集群上,而短时间内外部数据只能发送到旧集群,这样就需要将旧集群中的topic数据接到新集群的topic中。这里用到了MirrorMaker工具,简单的说,这个工具就是启动consumer消费旧集群中topic的数据,然后启动producer直接发送到新集群中的topic。
操作步骤
注:本文使用的Kafka版本是0.10.0
-
准备工作
-
假设旧集群中topic叫做tutorials只有一个partition,在新的集群中创建一个同名的topic,并设置partition为3;
-
将两个集群中所有broker的ip和hostname的映射加到这些机器的
/etc/hosts
中; -
创建consumer.config配置,
zookeeper.connect
为旧集群的地址,例如zookeeper.connect=oldhost:2181 group.id=dp-MirrorMaker
-
创建producer.config配置,
bootstrap.servers
为新集群的地址,例如bootstrap.servers=newhost:6667
-
-
运行测试
先检查一下旧topic中的offset情况
sh /usr/hdp/2.5.0.0-1245/kafka/bin/kafka-run-class.sh kafka.tools.GetOffsetShell --broker-list oldhost:6667 --topic tutorials --time -1
tutorials:0:3
在看一下新topic中的offset情况
sh /usr/hdp/2.5.0.0-1245/kafka/bin/kafka-run-class.sh kafka.tools.GetOffsetShell --broker-list newhost:6667 --topic tutorials --time -1
tutorials:2:1
tutorials:1:1
tutorials:0:2
在新的集群中运行下面的命令,使用jsp可以看到会有个MirrorMaker
进程
sh /usr/hdp/2.5.0.0-1245/kafka/bin/kafka-run-class.sh kafka.tools.MirrorMaker --consumer.config /opt/consumer.config --num.streams 2 --producer.config /opt/producer.config —num.producers 2 --whitelist="tutorials"
向旧的topic中发送hello
,可以通过在新集群的kafka-console-consumer.sh
查看是否收到消息,并且使用上面的命令查看新的topic的offset的情况,可以看到新的消息被存在partition-2中了,说明接进来的消息会重新分配partition
tutorials:2:2
tutorials:1:1
tutorials:0:2
其他
在实际的生产环境中需要将这个命令放到后台运行,并且需要查看相关的日志,那么只需要增加几个参数即可
sh /usr/hdp/2.5.0.0-1245/kafka/bin/kafka-run-class.sh -daemon -name tutorials -loggc kafka.tools.MirrorMaker --consumer.config /opt/consumer.config --num.streams 2 --producer.config /opt/producer.config —num.producers 2 --whitelist="tutorials"
这样生成的日志文件会在kafka目录下的log里面,并且日志的名字为tutorials-gc.log和tutorials.out,默认的log的配置在kafka中conf里面的tools-log4j.properties文件。
网友评论