- 上传安装包到集群服务器
- 解压: tar -zxvf jdk-8u131-linux-x64.tar.gz -C /usr/local/java
- 修改配置文件: 进入zookeeper的安装目录的conf目录
cp zoo_sample.cfg zoo.cfg
vi zoo.cfg
# The number of milliseconds of each tick
tickTime=2000
initLimit=10
syncLimit=5
dataDir=/root/zkdata
clientPort=2181
#autopurge.purgeInterval=1
server.1=hdp20-01:2888:3888
server.2=hdp20-02:2888:3888
server.3=hdp20-03:2888:3888
- 对3台节点,都创建目录 mkdir /root/zkdata
- 对3台节点,在工作目录中生成myid文件,但内容要分别为各自的id: 1,2,3
hdp20-01上: echo 1 > /root/zkdata/myid
hdp20-02上: echo 2 > /root/zkdata/myid
hdp20-03上: echo 3 > /root/zkdata/myid
- 从hdp20-01上scp安装目录到其他两个节点(几台机器上路径都一样的)
scp -r zookeeper-3.4.6/ hdp20-02:$PWD
scp -r zookeeper-3.4.6/ hdp20-03:$PWD
启动zookeeper集群
- zookeeper没有提供自动批量启动脚本,需要手动一台一台地起zookeeper进程
在每一台节点上,运行命令:
进入bin目录,./zkServer.sh start
启动后,用jps应该能看到一个进程:QuorumPeerMain
但是,光有进程不代表zk已经正常服务,需要用命令检查状态:
./zkServer.sh status
能看到角色模式:为leader或follower,即正常了。