一、解压安装包
(a)进入到此目录下:
cd /home/hadoop/tools/
(b)解压kafka的压缩包:
tar kafka_2.11-0.11.0.2.tgz -C /home/hadoop/install/
二、如果觉得名字太长,可以修改名字
mv kafka_2.11-0.11.0.2/ kafka
三、修改配置文件
(a)进入到此目录下:
cd /home/hadoop/install/kafka/config/
(b)修改"server.properties"文件:
vi server.properties
四、修改内容如下
#broker的全局唯一编号,不能重复
broker.id=0
#是否允许删除topic
delete.topic.enable=true
#kafka运行日志存放的路径
log.dirs=/home/hadoop/install/kafka/data/kafka-logs
#配置连接Zookeeper集群地址
zookeeper.connect=hadoop102:2181,hadoop103:2181,hadoop104:2181
五、可以配置环境变量
(a)因本人用普通用户,需要添加sudo:
sudo vi /etc/profile
(b)修改内容如下:
export KAFKA_HOME=/home/hadoop/install/kafka
export PATH=$PATH:$KAFKA_HOME/bin
(c)使"/etc/profile"文件生效:
source /etc/profile
六、一台机器配置完成,分发安装包
xsync /etc/profile
xsync /home/hadoop/install/kafka
七、分别在02,03机器上修改配置文件"server.properties"
注:在此目录下:
/home/hadoop/install/kafka/config/server.properties
改为:
broker.id=1
broker.id=2
注:broker.id不得重复
八、启动集群
(a)进入到此目录下:
cd /home/hadoop/install/kafka/
(b)执行此命令
bin/kafka-server-start.sh config/server.properties &
注:分别在每台机器上执行如上命令
九、关闭集群
(a)进入到此目录下:
cd /home/hadoop/install/kafka/
(b)执行此命令
bin/kafka-server-stop.sh stop
注:分别在每台机器上执行如上命令