1、在hadoop用户的家目录下创建一个data文件
指定hadoop/etc/hadoop下配置文件core-site.xml配置hadoop元数据存放目录为该目录
指定zookeeper/conf/配置文件zoo.cfg中配置zookeeper元数据存放目录为该目录
2、检查三大文件
1>vi etc/hosts文件中配置四台服务器的域名地址
2>slaves文件配置4台服务器的心跳
3>zookeeper的zoo.cfg文件中配置4台服务器角色,其中hadoop05为observer
以及配置log目录/home/hadoop/zklog
3、同步时间和免密登录
1、删除家目录下.ssh文件
2、同步时间
3、配置免密登录
4、发送zookeeper和hadoop安装包到各个服务器节点
元数据和日志目录
dataDir=/home/hadoop/data/zkdata
dataLogDir=/home/hadoop/log/zklog
4、问题
1)格式化只能进行一次
第一:NameNode的格式化
hadoop namenode -format
第二:ZKFC的格式化
hdfs zkdc -formatZK
2)NameNode没有启起来
操作:将一个NameNode的元数据发送到另一个NameNode元数据存放目录,两个NameNode的元数据存放目录必须一致
3)启动顺序
Hadoop02-Hadoop05 :zkServer.sh start
Hadoop02:Hadoop03:Hadoop04:hadoop-daemon.sh start journalnode
hadoop namenode -format
元数据同步:scp -r ~/data/hadoopdata/ hadoop03:~/data
hdfs zkfc -formatZK
Hadoop02:start-dfs.sh(hdfs-daemon.sh start namenode)
Hadoop04:start-yarn.sh(yarn-daemon.sh start resourcemanager)
Hadoop05:yarn-daemon.sh start resourcemanager
关闭服务顺序:
hadoop04:stop-yarn.sh
hadoop05:yarn-daemon.sh stop resourcemanager
hadoop02:stop-dfs.sh
hadoop02:hadoop03:hadoop04:hadoop05 zkServer.sh stop
二、在HA基础上搭建HBase
版本:hbase-1.2.4-bin.tar.gz
下载网址:http://mirrors.hust.edu.cn/apache/hbase/
第一步:解压安装包到HBase
第二步:修改并发送配置文件 conf目录
1)hbase-env.sh
27行和128行
27 export JAVA_HOME=/usr/local/jdk1.8.0_73
128 export HBASE_MANAGES_ZK=false
2)hbase-site.xml 配置内容
①指定hbase在HDFS上存储的路径
name:hbase.tmp.dir
value:hdfs://myha01/hbase
②指定hbase是分布式的
name:hbase.cluster.distributed
value:true
③指定zk的地址,多个用“,”分割
name:hbase.zookeeper.quorum
value:hadoop02:2181,hadoop03:2181,hadoop04:2181
3)backup-masters文件中配置两个NameNode节点
4)发送hdfs-site.xml和core-site.xml到该目录下
第三步、配置环境变量:家目录
vi .bashrc
配置内容:
export HBASE_HOME=/home/hadoop/apps/hbase-1.2.4
export PATH=$PATH:$HBASE_HOME/bin
第四步:删除Hadoop03/04/05家目录下.bashrc文件
进入Hadoop02的apps目录:
scp -r hbase-1.2.4 hadoop@hadoop03:$PWD
scp -r hbase-1.2.4 hadoop@hadoop04:$PWD
scp -r hbase-1.2.4 hadoop@hadoop05:$PWD
进入家目录
scp .bashrc hadoop@hadoop03:$PWD
scp .bashrc hadoop@hadoop04:$PWD
scp .bashrc hadoop@hadoop05:$PWD
第五步:运行.bashrc脚本使配置的环境变量全局有效
source .bashrc
第六步:开启HA集群
第七步:开启HBase选择一个主节点进行
脚本:start-hbase.sh
查看进程
手动启动
hbase-daemon.sh start master
hbase-daemon.sh start regionserver
web网址:http://hadoop02:16010/
第八步:HBase命令行
执行命令 hbase shell 进入到hbase shell客户端开始使用
第九步:使用help学习命令
HBase Shell; enter 'help' for list of supported commands.
Type "exit" to leave the HBase Shell
网友评论