-
环境:
- jdk1.8(已配置)
- Ubuntu16
- 除了本地模式, 其他都需要安装好hadoop
-
安装与环境变量:
- 解压: tar -zxvf hbase-1.3.1-bin.tar.gz -C ~/training/
- 配置环境变量: vi /etc/profile
HBASE_HOME=/root/training/hbase-1.3.1
export HBASE_HOME
PATH=$HBASE_HOME/bin:$PATH
export PATH
- 生效环境变量: source ~/.bash_profile
本地模式
- 特点:不需要HDFS的支持,直接把数据存储在操作系统中
- vim hbase-env.sh
export JAVA_HOME=/root/training/jdk1.8.0_181
- vim hbase-site.xml
<configuration>
<!--配置HBase数据存储的路径-->
<property>
<name>hbase.rootdir</name>
<value>file:///root/training/hbase-1.3.1/data</value>
</property>
</configuration>
- 启动HBase
- start-hbase.sh
- 日志:starting master, logging to /root/training/hbase-1.3.1/logs/hbase-root-master-bigdata111.out
- 查看启动的java进程: jps
伪分布模式
- 先开启hadoop
- 特点:在单机上模拟一个分布式的环境;具备HBase所有的功能;多用于开发和测试
- 具备:ZooKeeper、HMaster、RegionServer, 且都在同一台服务器上
- vim hbase-env.sh
export JAVA_HOME=/root/training/jdk1.8.0_181
<!--表示使用HBase自带的ZooKeeper-->
export HBASE_MANAGES_ZK=true
- vim hbase-site.xml
<configuration>
<!--数据存储在HDFS上-->
<property>
<name>hbase.rootdir</name>
<value>hdfs://192.168.157.111:9000/hbase</value>
</property>
<!--表示是一个分布式的环境-->
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<!--ZK的地址-->
<property>
<name>hbase.zookeeper.quorum</name>
<value>192.168.157.111</value>
</property>
<!--Region的冗余,只有一个RegionServer-->
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
- vim regionservers
192.168.157.111
- 启动HBase
- start-hbase.sh
- 日志:192.168.157.111: starting zookeeper, logging to /root/training/hbase-1.3.1/bin/../logs/hbase-root-zookeeper-bigdata111.out
starting master, logging to /root/training/hbase-1.3.1/logs/hbase-root-master-bigdata111.out
192.168.157.111: starting regionserver, logging to /root/training/hbase-1.3.1/bin/../logs/hbase-root-regionserver-bigdata111.out
- 查看启动的java进程: jps
全分布模式(使用Habse自带zookeeper):3台
- 同步时间
- 利用xshell, 打开: 发送键盘输入到所有会话(https://www.xshellcn.com/xsh_column/string-mul.html)
- date -s 2020-01-01
- 自己玩可以手动设置同步时间, 实际生产环境中使用时间同步工具
- 启动Hadoop
- sh start-all.sh
- 先在bigdata112上进行搭建:
- vim hbase-env.sh
export JAVA_HOME=/root/training/jdk1.8.0_181
<!--表示使用HBase自带的ZooKeeper-->
export HBASE_MANAGES_ZK=true
- vim hbase-site.xml
<configuration>
<!--数据存储在HDFS上-->
<property>
<name>hbase.rootdir</name>
<value>hdfs://192.168.157.112:9000/hbase</value>
</property>
<!--表示是一个分布式的环境-->
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<!--ZK的地址-->
<property>
<name>hbase.zookeeper.quorum</name>
<value>192.168.157.112</value>
</property>
<!--Region的冗余, 因为有2个RegionServer服务器(也就是2个datanode服务器)-->
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
</configuration>
- vim regionservers: 指定从节点的地址,一般来说,RegionServer跟DataNode在一起
192.168.157.113
192.168.157.114
- 把112上的hbase复制到113和114
zrl@zrl-cpc:~$ scp -r hbase-1.3.1/ root@bigdata113:/root/training
zrl@zrl-cpc:~$ scp -r hbase-1.3.1/ root@bigdata114:/root/training
- 在112上启动HBase
- start-hbase.sh
- 日志:192.168.157.112: starting zookeeper, logging to /root/training/hbase-1.3.1/bin/../logs/hbase-root-zookeeper-bigdata112.out
starting master, logging to /root/training/hbase-1.3.1/logs/hbase-root-master-bigdata112.out
192.168.157.114: starting regionserver, logging to /root/training/hbase-1.3.1/bin/../logs/hbase-root-regionserver-bigdata114.out
192.168.157.113: starting regionserver, logging to /root/training/hbase-1.3.1/bin/../logs/hbase-root-regionserver-bigdata113.out
- 查看启动的java进程: jps
HA的模式:
- 非常简单,不需要单独搭建,只需要在全分布式环境中的某个从节点上,手动启动一个Master就可以
- 在113上执行:
hbase-daemon.sh start master
- 查看启动的java进程: jps
网友评论