只是简单记录搭建的过程,有时间再详细说明。
前置环境
- 准备4台虚拟机(node(01~04))
- node02、node03、node04上已经安装了zookeeper集群
- node01、node02、node03准备安装kafka集群
kafka集群安装
下载kafka
[root@node01 soft]
[root@node01 soft]
[root@node01 soft]
[root@node01 soft]
修改配置文件
修改配置/opt/bigdata/kafka/config/server.properties 每个kafka实例单独配置其独有的本地broker.id 和listeners
[root@node01 soft]
broker.id=0
listeners=PLAINTEXT:node01:9092
log.dirs=/var/kafka/data
zookeeper.connect=node02:2181,node03:2181,node04:2181/kafka
[root@node01 soft]
[root@node01 soft]
[root@node01 soft]
配置环境变量
[root@node01 soft]
export JAVA_HOME=/usr/java/default
export ZOOKEEPER_HOME=/opt/mmm/zk/apache-zookeeper-3.7.0-bin
export KAFKA_HOME=/opt/bigdata/kafka_2.12-2.1.0
export PATH=$PATH:$JAVA_HOME/bin:$ZOOKEEPER_HOME/bin:$KAFKA_HOME/bin
[root@node01 soft]
分发kafka安装文件到其他节点
[root@node01 soft]
[root@node01 bigdata]
[root@node01 bigdata]
修改node(02~03)配置文件
[root@node02 ~]
broker.id=1
listeners=PLAINTEXT:node02:9092
log.dirs=/var/kafka/data
zookeeper.connect=node02:2181,node03:2181,node04:2181/kafka
[root@node03 ~]
broker.id=2
listeners=PLAINTEXT:node03:9092
log.dirs=/var/kafka/data
zookeeper.connect=node02:2181,node03:2181,node04:2181/kafka
配置环境变量
[root@node02 ~]
export JAVA_HOME=/usr/java/default
export ZOOKEEPER_HOME=/opt/mmm/zk/apache-zookeeper-3.7.0-bin
export KAFKA_HOME=/opt/bigdata/kafka_2.12-2.1.0
export PATH=$PATH:$JAVA_HOME/bin:$ZOOKEEPER_HOME/bin:$KAFKA_HOME/bin
[root@node02 ~]
[root@node03 ~]
export JAVA_HOME=/usr/java/default
export ZOOKEEPER_HOME=/opt/mmm/zk/apache-zookeeper-3.7.0-bin
export KAFKA_HOME=/opt/bigdata/kafka_2.12-2.1.0
export PATH=$PATH:$JAVA_HOME/bin:$ZOOKEEPER_HOME/bin:$KAFKA_HOME/bin
[root@node03 ~]
使用kafka
启动kafka
[root@node01 ~]
[root@node02 ~]
[root@node03 ~]
创建topic
[root@node01 ~]
生产者消费者
生产者生产消息,消费者消费消息
- 启动一个生产者,启动一个消费者
- 在启动一个消费者,生产者连续生产消息1,2,3,4,5,6,7,8
- 两个消费者中均衡的消费消息,一个消费者消费1,3,5,7;另一个消费者消费2,4,6,8
生产者生产消息
[root@node01 conf]
hello1
hello2
1
2
3
4
5
6
7
8
消费者消费消息
[root@node01 ~]
hello1
hello2
1
3
5
7
[root@node03 ~]
2
4
6
8
|