美文网首页我爱编程
hadoop高可用集群搭建

hadoop高可用集群搭建

作者: 夙夜M | 来源:发表于2017-08-25 20:23 被阅读0次

1、在hadoop用户的家目录下创建一个data文件

指定hadoop/etc/hadoop下配置文件core-site.xml配置hadoop元数据存放目录为该目录

指定zookeeper/conf/配置文件zoo.cfg中配置zookeeper元数据存放目录为该目录

2、检查三大文件

1>vi etc/hosts文件中配置四台服务器的域名地址

2>slaves文件配置4台服务器的心跳

3>zookeeper的zoo.cfg文件中配置4台服务器角色,其中hadoop05为observer

以及配置log目录/home/hadoop/zklog

3、同步时间和免密登录

1、删除家目录下.ssh文件

2、同步时间

3、配置免密登录

4、发送zookeeper和hadoop安装包到各个服务器节点

元数据和日志目录

dataDir=/home/hadoop/data/zkdata

dataLogDir=/home/hadoop/log/zklog

4、问题

1)格式化只能进行一次

第一:NameNode的格式化

hadoop namenode -format

第二:ZKFC的格式化

hdfs zkdc -formatZK

2)NameNode没有启起来

操作:将一个NameNode的元数据发送到另一个NameNode元数据存放目录,两个NameNode的元数据存放目录必须一致

3)启动顺序

Hadoop02-Hadoop05 :zkServer.sh start

Hadoop02:Hadoop03:Hadoop04:hadoop-daemon.sh start journalnode

hadoop namenode -format

元数据同步:scp -r ~/data/hadoopdata/ hadoop03:~/data

hdfs zkfc -formatZK 

Hadoop02:start-dfs.sh(hdfs-daemon.sh start namenode)

Hadoop04:start-yarn.sh(yarn-daemon.sh start resourcemanager)

Hadoop05:yarn-daemon.sh start resourcemanager

关闭服务顺序:

hadoop04:stop-yarn.sh

hadoop05:yarn-daemon.sh stop resourcemanager

hadoop02:stop-dfs.sh

hadoop02:hadoop03:hadoop04:hadoop05 zkServer.sh stop

二、在HA基础上搭建HBase

版本:hbase-1.2.4-bin.tar.gz

下载网址:http://mirrors.hust.edu.cn/apache/hbase/

第一步:解压安装包到HBase

第二步:修改并发送配置文件 conf目录

1)hbase-env.sh 

27行和128行

27 export JAVA_HOME=/usr/local/jdk1.8.0_73

128 export HBASE_MANAGES_ZK=false

2)hbase-site.xml 配置内容

①指定hbase在HDFS上存储的路径

name:hbase.tmp.dir 

value:hdfs://myha01/hbase

②指定hbase是分布式的

name:hbase.cluster.distributed

value:true

③指定zk的地址,多个用“,”分割

name:hbase.zookeeper.quorum

value:hadoop02:2181,hadoop03:2181,hadoop04:2181

3)backup-masters文件中配置两个NameNode节点

4)发送hdfs-site.xml和core-site.xml到该目录下

第三步、配置环境变量:家目录

vi .bashrc

配置内容:

export HBASE_HOME=/home/hadoop/apps/hbase-1.2.4

export PATH=$PATH:$HBASE_HOME/bin

第四步:删除Hadoop03/04/05家目录下.bashrc文件

进入Hadoop02的apps目录:

scp -r hbase-1.2.4 hadoop@hadoop03:$PWD

scp -r hbase-1.2.4 hadoop@hadoop04:$PWD

scp -r hbase-1.2.4 hadoop@hadoop05:$PWD

进入家目录

scp .bashrc hadoop@hadoop03:$PWD

scp .bashrc hadoop@hadoop04:$PWD

scp .bashrc hadoop@hadoop05:$PWD

第五步:运行.bashrc脚本使配置的环境变量全局有效

source .bashrc

第六步:开启HA集群

第七步:开启HBase选择一个主节点进行

脚本:start-hbase.sh

查看进程

手动启动

hbase-daemon.sh start master

hbase-daemon.sh start regionserver

web网址:http://hadoop02:16010/

第八步:HBase命令行

执行命令 hbase shell        进入到hbase shell客户端开始使用

第九步:使用help学习命令

HBase Shell; enter 'help' for list of supported commands.

Type "exit" to leave the HBase Shell

相关文章

网友评论

    本文标题:hadoop高可用集群搭建

    本文链接:https://www.haomeiwen.com/subject/dfkhdxtx.html