美文网首页Hadoop系大数据平台搭建大数据
搭建大数据平台系列(3)-hbase环境搭建

搭建大数据平台系列(3)-hbase环境搭建

作者: 抹布先生M | 来源:发表于2018-12-13 21:26 被阅读3次

    目前本系列文章有:
    搭建大数据平台系列(0)-机器准备
    搭建大数据平台系列(1)-Hadoop环境搭建[hdfs,yarn,mapreduce]
    搭建大数据平台系列(2)-zookeeper环境搭建
    搭建大数据平台系列(3)-hbase环境搭建

    1.安装步骤

    Hbase的安装需要在hadoop和zookeeper安装完成的基础上进行安装部署,所以,需要在安装hbase前准备好hadoop和zookeeper的环境(请看本系列前几篇文章)

    1.下载hbase-1.0.0-cdh5.5.0.tar.gz到master机器的~/bigdataspacce文件夹下
    2.解压安装包的命令:
    [hadoop@master ~]$ cd  ~/bigdataspacce
    [hadoop@master bigdataspace]$  tar -zxvf hbase-1.0.0-cdh5.5.0.tar.gz
    3.解压完成后删除压缩包:
    [hadoop@master bigdataspace]$  rm hbase-1.0.0-cdh5.5.0.tar.gz
    4.修改hbase-env.sh、hbase-site.xml配置文件以及regionservers文件(配置dataNode节点)
        $  cd  /home/hadoop/bigdataspace/hbase-1.0.0-cdh5.5.0/conf
        $  vi  hbase-env.sh
        # The java implementation to use.  Java 1.7+ required.
    # export JAVA_HOME=/usr/java/jdk1.6.0/
    (在上面这条注释下加上:)
    export JAVA_HOME=/home/hadoop/bigdataspace/jdk1.8.0_60
    ……
    export HBASE_PID_DIR=/data/hbase-1.0.0-cdh5.5.0/pids
    # export HBASE_MANAGES_ZK=true   #设置hbase是否管理zookeeper
    export HBASE_MANAGES_ZK=true
    export HBASE_MANAGES_ZK=false               #使用独立的ZooKeeper时需要修改HBASE_MANAGES_ZK值为false,为不使用默认自带的ZooKeeper实例。
    
    $  vi  hbase-site.xml
    (修改配置文件内容为如下)
    <configuration>
        <property>
            <name>hbase.rootdir</name>
            <value>hdfs://master:8020/hbase</value>
        </property>
        <property>
            <name>hbase.cluster.distributed</name>
            <value>true</value>
        </property>
        <property>
            <name>hbase.zookeeper.quorum</name>
            <value>slave1,slave2,slave3</value>
        </property>
        <property>
            <name>hbase.zookeeper.property.dataDir</name>
            <value>/data/zookeeper-3.4.5-cdh5.5.0/var/data</value>
        </property>
        <property>
            <name>hbase.tmp.dir</name>
            <value>/data/hbase-1.0.0-cdh5.5.0/tmp</value>
        </property>
    </configuration>
    (hdfs://master:8020/hbase,这里的hbase目录未建好的话是需要hdfs dfs –mkdir 新建的目录)
    $  vi  regionservers
    slave1
    slave2
    slave3
    (以上使用对应的ip配置也可以)
    
    5.配置HBASE_HOME
    $  vi  /etc/profile
        (加上如下配置)
        export HBASE_HOME=/home/hadoop/bigdataspace/hbase-1.0.0-cdh5.5.0
    export PATH=$JAVA_HOME/bin:$HADOOP_HOME/bin:$HBASE_HOME/bin:$PATH
    6.使用scp命令把hbase分发到各个节点
        $  scp  -r  hbase-1.0.0-cdh5.5.0/ hadoop@slave1:~/bigdataspace/
    $  scp  -r  hbase-1.0.0-cdh5.5.0/ hadoop@slave2:~/bigdataspace/
    $  scp  -r  hbase-1.0.0-cdh5.5.0/ hadoop@slave3:~/bigdataspace/
    
        然后在各个节点上执行第5步:配置HBASE_HOME_
    
    7.Hbase的启动与停止
        启动hbase时要确保hdfs已经启动,HBase的启动顺序为:HDFS->Zookeeper->HBase,启动Hbase的命令如下(在master机器上):
        [hadoop@master ~]$  cd  /home/hadoop/bigdataspace/hbase-1.0.0-cdh5.5.0/bin
    (注意,如果设置了hbase管理zookeeper,则需要先关闭手动启动的各节点zookeeper)
        如slave1机器:
        [hadoop@slave1 ~]$  ~/bigdataspace/zookeeper-3.4.5-cdh5.5.0/bin/zkServer.sh  stop
        在master机器:
     [hadoop@master bin]$  ./start-hbase.sh
        
        [hadoop@master bin]$ jps
        29385 HMaster
    19994 JobHistoryServer
    19068 NameNode
    29757 Jps
    19422 ResourceManager
    19263 SecondaryNameNode
    
        如slave1机器:
        [hadoop@slave1 bin]$ jps
    12768 DataNode
    17971 HRegionServer
    12884 NodeManager
    22704 QuorumPeerMain
    18169 Jps
    17851 HQuorumPeer  #hbase管理zookeeper的进程, 
    #如果export HBASE_MANAGES_ZK=true,才会出现上面的进程
    
    
    如果HQuorumPeer不存在,而是QuorumPeerMain则表明需要手动关闭zookeeper,hbase才能接手管理。
    Hbase停止命令:
    [hadoop@master bin]$  ./stop-hbase.sh
    

    2.验证启动成功

    访问HBase web 页面:http://master:60010/

    相关文章

      网友评论

        本文标题:搭建大数据平台系列(3)-hbase环境搭建

        本文链接:https://www.haomeiwen.com/subject/lclihqtx.html