一、概述
HBase是一个高可用、高性能、面向列、可伸缩的分布式存储系统。适合存储大表数据。
二、安装准备
1、Hadoop的下载安装,见其他文章
使用版本是hadoop-3.2.1.tar.gz
2、Zookeeper下载
下载zookeeper-3.4.12.tar.gz版本
3、HBase-2.2.3下载
下载hbase-2.2.3-bin.tar.gz版本
4、操作系统版本
CentOS7
5、服务器机器
机器名称 Ip地址 操作系统 位数 备注
hadoop01 10.10.36.20 Linux 64 Master
hadoop02 10.10.36.164 Linux 64 slaver
hadoop03 10.10.5.247 Linux 64 slaver
三、安装步骤
1、zookeeper安装
在/home/创建zookeeper目录,用于存放zookeeper的安装文件
同时创建zookeeper_data子目录,用于存放数据

修改zookeeper配置文件,进入/home/zookeeper/zookeeper-3.4.12/conf/
将zoo_sample.cfg 拷贝zoo.cfg
vi zoo.cfg 打开,添加一下内容
dataDir=/home/zookeeper/zookeeper_data
server.1=hadoop01:2888:3888
server.2=hadoop02:2888:3888
server.3=hadoop03:2888:3888
退出保存。
接着同步到另外两台服务器hadoop02和hadoop03
Scp -r /home/zookeeper/zookeeper-3.4.12 root@hadoop02:/home/
Scp -r /home/zookeeper/zookeeper-3.4.12 root@hadoop03:/home/
最后就是直接启动即可。
2、HBase安装
在hadoop01服务器创建/home/hbase目录,解压安装压缩包到这个目录下
tar -zxvf hbase-2.2.3-bin.tar.gz -C /home/hbase/
进入到/home/hbase/hbase-2.2.3/conf目录
修改hbase-env.sh文件,添加一下内容
export JAVA_HOME=/opt/java/jdk1.8.0_181 --JDK关联
export HBASE_MANAGES_ZK=false --关闭掉Hbase本身管理的zookeeper
修改hbase-site.xml文件,新增一下内容
<property>
<name>hbase.rootdir</name>
<value>hdfs://hadoop01:9000/home/hbase-2.2.3_db</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>hadoop01,hadoop02,hadoop03</value>
</property>
<property>
<name>hbase.zookeeper.property.clientPort</name>
<value>2181</value>
</property>
<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/home/hbase/zk_data</value>
</property>
<property>
<name>hbase.tmp.dir</name>
<value>/home/hbase/tmp</value>
</property>
修改regionservers文件 去掉localhost,修改为
hadoop01
hadoop02
hadoop03
保存退出即可。
依然是同步到另外两台机器
Scp -r /home/hbase/hbase-2.2.3 root@hadoop02:/home/
Scp -r /hhome/hbase/hbase-2.2.3 root@hadoop03:/home/
修改/etc/profile文件,添加HBASE_HOME目录
Vim /etc/profile
export HBASE_HOME=/home/hbase/hbase-2.2.3
export PATH=PATh
退出保存,最后刷新一下
Source /etc/profile
最后同步到另外两台机器
Scp /etc/profile root@hadoop02:/etc/
Scp /etc/profile root@hadoop03:/etc/
3、HBase启动
首先要明确hadoop是启动成功,有进程
Hadoop01

Hadoop02

hadoop03

接着启动zookeeper,需要一台一台启动,最后检查进程

hadoop01

hadoop02

hadoop03

从上,可以看出hadoop02为leader,剩下两个节点为follower
接着是启动HBase,hadoop01在/home/hbase/hbase-2.2.3/bin执行./start-hbase.sh
hadoop01

hadoop02

hadoop03

启动成功
四、题外话
后续尝试使用sqoop从MySQL导入到HBase数据库。
网友评论