hbase也是基于HDFS的.本节还是安装完全分布模式。由于各个节点时间误差太多,hbase启动会失败。所以先前已经安装了NTP时间同步服务。
跟hive一样将/opt/hbase-1.2.0-cdh5.8.0.tar.gz解压
tar -zxvf hbase-1.2.0-cdh5.8.0.tar.gz
1. 修改hbase-1.2.0-cdh5.8.0\conf下的hbase_env.sh
添加如下配置
export JAVA_HOME=/usr/java/jdk1.7.0_79
#申明使用自带的Zookeeper.否则可安装单独的Zookeeper
export HBASE_MANAGES_ZK=true
2.修改hbase-1.2.0-cdh5.8.0\conf下的regionservers
slave1
slave2
也就是文件要分发到这两个节点上。
3. 配置环境变量
/etc/profile中加入
export HBASE_HOME=/opt/hbase-1.2.0-cdh5.8.0
export PATH=$HBASE_HOME/bin:$PATH
环境变量生效执行
source /etc/profile
4.配置hbase-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
<name>hbase.rootdir</name>
<value>hdfs://master:9000/hbase</value>
</property>
<property>
<name>hbase.zoopkeeper.property.dataDir</name>
<value>/home/hadoop/software/zookeeper</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>master,slave1,slave2</value>
</property>
<property>
<name>hbase.zookeeper.property.clientPort</name>
<value>2181</value>
<description> 连接到zookeeper的端口,默认是2181</description>
</property>
<property>
<name>hbase.master</name>
<value>master</value>
<description>指定 hbase 集群主控节点</description>
</property>
<property><name>hbase.thrift.support.proxyuser</name><value>true</value></property>
<property><name>hbase.regionserver.thrift.http</name><value>true</value></property>
</configuration>
5.拷贝master中的/opt/hbase-1.2.0-cdh5.8.0/目录到slave1,slave2
scp -r /opt/hbase-1.2.0-cdh5.8.0/ hadoop@slave1:/opt
scp -r /opt/hbase-1.2.0-cdh5.8.0/ hadoop@slave2:/opt
6.启动/opt/hbase-1.2.0-cdh5.8.0/bin/start-hbase.sh
主节点启动