这里以3台节点为例
1.上传解压
上传到当前用户家目录下,解压到/opt目录下

2.配置 config/server.properties
cd /opt/kafka_2.11-0.11.0.3/conf目录下:vim server.properties
修改如下四个配置项,(0.11版本的kafka端口号默认是9092,可以不用修改)
broker.id当前节点的broker id
delete.topic.enable=true支持删除topic


配置zookeeper集群

这里拷贝启动kafka启动脚本到kafka目录下,

打开脚本内容如下:看不懂的可以参考链接;

3.发送其他节点
4.启动zookeeper集群
分别在node01,node02,node03节点:zkServer.sh start;
为什么这里要拷贝kafka启动脚本到kafka目录下,因为如果使用kafka bin目录下的
kafka-server-start.sh 来启动的话,会阻塞式占用当前窗口,ctrl+c的话kafka进程会被杀死;


采用脚本方式提交的话就很好的避免了上述情况
5.分别在每台broker节点启动kafka

网友评论