美文网首页
Hadoop(第1篇):完全分布式安装

Hadoop(第1篇):完全分布式安装

作者: 流沙雪 | 来源:发表于2019-02-21 09:59 被阅读0次

    要求

    在10.110.18.216~10.110.18.218三台主机安装hadoop环境

    前提

    • java环境:jdk 8
      +hadoop版本: 2.6.5

    免密登录
    本机免密登录

    在10.110.18.216、10.110.18.217、10.110.18.218三台主机分别修改/etc/hosts

    10.110.18.216   indata-10-110-18-216.indata.com   indata-10-110-18-216
    10.110.18.217   indata-10-110-18-217.indata.com   indata-10-110-18-217
    10.110.18.218   indata-10-110-18-218.indata.com   indata-10-110-18-218
    

    修改hostname,是其分别为indata-10-110-18-216、indata-10-110-18-217、indata-10-110-18-218

    其中,10.110.18.216为master,10.110.18.217/10.110.18.218位slaves

    生成公钥-私钥

    ssh-keygen -t rsa
    

    将其追加到authorized_keys

    cat ~/.ssh/id_rsa.pub >> authorized_keys
    

    赋予权限

    chmod 600 .ssh/authorized_keys
    

    验证本机免密登录

    ssh indata-10-110-18-216
    

    10.110.18.217/10.110.18.218做相同操作。

    master免密登录slaves

    将master主机的id_rsa.pub拷贝到slaves,并追加

    scp root@10.110.18.216:/root/.ssh/id_rsa.pub /root/
    cat id_rsa.pub >> ~/.ssh/authorized_keys
    rm -rf /root/id_ras.pub
    

    在master主机测试

    ssh indata-10-110-18-217
    

    slaves免密登录master

    将slave主机的公钥拷贝到master主机

    scp root@10.110.18.217/root/.ssh/id_rsa.pub /root
    cat /root/id_rsa.pub >> /root/.ssh/authorized_keys
    

    在slave主机测试

    ssh indata-10-110-18-216
    

    master主机环境搭建
    解压hadoop压缩包

    tar -xzvf  hadoop-2.6.5.tar.gz    -C /data
    

    配置环境变量

    # Hadoop
    export HADOOP_HOME=/data/hadoop-2.6.5
    export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
    

    激活环境变量

    source /etc/profile
    

    配置core-site.xml

    指定NameNode的IP和端口,指定hadoop数据存储的临时文件夹

    <configuration>
        <property>
            <name>hadoop.tmp.dir</name>
            <value>/data/hadoop-2.6.5/tmp</value>
            <description>Abase for other temporary directories.</description>
        </property>
        <property>
            <name>fs.defaultFS</name>
            <value>hdfs://10.110.18.216:8020</value>
        </property>
    </configuration>
    

    如果没有配置hadoop.tmp.dir,则系统默认为/tmp/hadoop。该目录在每次重启主机时都会删掉,必须重新执行format,否则出错
    配置hdfs-site.xml

    指定HDFS备份为3,指定namenode节点文件存储目录,指定datanode节点文件存储目录

    <configuration>
        <property>
            <name>dfs.replication</name>
            <value>3</value>
        </property>
        <property>
            <name>dfs.name.dir</name>
            <value>/data/hadoop-2.6.5/hdfs/name</value>
        </property>
        <property>
            <name>dfs.data.dir</name>
            <value>/data/hadoop-2.6.5/hdfs/data</value>
        </property>
    </configuration>
    

    配置mapred-site.xml

    拷贝mapred-site.xml.template,并修改

    cp mapred-site.xml.template mapred-site.xml
    <configuration>
      <property>
          <name>mapreduce.framework.name</name>
          <value>yarn</value>
      </property>
       <property>
          <name>mapred.job.tracker</name>
          <value>http://10.110.18.216:9001</value>
      </property>
    </configuration>
    

    配置yarn-site.xml

    <configuration>
        <property>
            <name>yarn.nodemanager.aux-services</name>
            <value>mapreduce_shuffle</value>
        </property>
        <property>
            <name>yarn.resourcemanager.hostname</name>
            <value>indata-10-110-18-216</value>
        </property>
    </configuration>
    

    配置masters

    修改/data/hadoop-2.6.5/etc/hadoop/masters

    indata-10-110-18-216
    

    配置slaves

    修改/data/hadoop-2.6.5/etc/hadoop/slaves

    indata-10-110-18-217
    indata-10-110-18-218
    

    slaves环境搭建
    将master安装环境拷贝到slave主机

    删除slaves配置

    rm -rf /data/hadoop-2.6.5/etc/hadoop/slaves
    

    启动集群
    在master主机,格式化hdfs文件系统

    hdfs namenode -format
    

    如果出现datanode无法启动问题,可以删除/data/hadoop-2.6.5/tmp和/data/hadoop-2.6.5/hdfs目录,并重新格式化
    启动hadoop

    sbin/start-all.sh
    

    通过jps命令查看运行情况

    # master
    1040 SecondaryNameNode
    4201 Jps
    1211 ResourceManager
    828 NameNode
    # slave
    6202 DataNode
    6315 NodeManager
    6622 Jps
    

    查看hadoop集群状态

    hadoop dfsadmin -report
    

    通过浏览器访问hdfs

    http://10.110.18.216:50070
    

    通过浏览器访问yarn

    http://10.110.18.216:8088
    

    相关文章

      网友评论

          本文标题:Hadoop(第1篇):完全分布式安装

          本文链接:https://www.haomeiwen.com/subject/twglyqtx.html