美文网首页
Hadoop入门-环境搭建及集群配置

Hadoop入门-环境搭建及集群配置

作者: ycl113 | 来源:发表于2017-10-21 15:51 被阅读0次

    1、安装VMware12,过程略

    安装完成后, 系统会多出两张网卡VMnet1和VMnet8, 将该VMnet8的IP地址设置为192.168.111.1, 后面步骤安装的虚拟机均要为同一网段, 否则无法正常访问网络

    VMnet8网卡地址设置

    2、安装CentOS6.8,过程略

    3、服务器配置

    3.1 配置网络(如果是复制的slave,需要删除HWADDR和UUID两个属性,安装的mater主机可不必删除)

    vi /etc/sysconfig/network-scripts/ifcfg-eth0
    
    master配置截图 slave配置截图

    3.2 修改主机名称

    vi /etc/sysconfig/network
    

    3.3 删除网卡配置文件(重启后会再动态生成)

    rm -rf /etc/udev/rules.d/70-persistent-net.rules
    

    3.4 配置主机名地址映射

    vi /etc/hosts
    

    3.5 配置DNS解析

    echo "nameserver 114.114.114.114" >> /etc/resolv.conf
    echo "nameserver 8.8.8.8" >> /etc/resolv.conf
    

    3.6 关闭防火墙

    service iptables stop
    chkconfig iptables off
    

    3.7 重启master,使以上配置生效,并测试网络

    3.8 master免密码登录slave

    cd ~/.ssh
    ssh-keygen -t rsa(全部回车)
    cat id_rsa.pub >> authorized_keys
    
    ssh-copy-id cm02
    ssh-copy-id cm03
    ssh-copy-id cm04
    

    3.9 增加hadoop用户

    useradd -m hadoop -s /bin/bash
    password hadoop
    visudo
    

    增加一行
    hadoop ALL=(ALL) ALL

    3.9 按master主机克隆另外3台slave从机(可在master主机安装并配置完成hadoop后再执行,以免需要重复安装JDK和hadoop)

    4 安装JDK

    rpm -ivh jdk-8u131-linux-x64.rpm
    

    5 安装hadoop

    5.1 解压安装包并重命名文件夹

    tar -zvxf hadoop-2.6.5.tar.gz
    mv hadoop-2.6.5 hadoop
    

    5.2 设置主机环境变量

    vi /etc/profile
    
    export JAVA_HOME=/usr/java/default
    export PATH=$PATH:$JAVA_HOME/bin
    export CLASSPATH=.:$IAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
    export PATH=$PATH:/usr/local/softs/hadoop/bin:/usr/local/softs/hadoop/sbin
    

    生效环境变量

    source /etc/profile
    

    5.3 配置hadoop环境(hadoop-env.sh,mapred-env.sh, yarn-env.sh)

    vi /usr/local/softs/hadoop/etc/hadoop/hadoop-env.sh
    
    export JAVA_HOME=/usr/java/default
    

    5.4 配置NameNode

    vi/usr/local/softs/hadoop/etc/hadoop/core-site.xml
    
    <property>
      <name>fs.defaultFS</name>
      <value>hdfs://cm01:9000</value>
    </property>
    <property>
      <name>hadoop.tmp.dir</name>
      <value>/var/hadoop/tmp</value>
    </property>
    

    5.5 配置SecondNameNode

    vi /usr/local/softs/hadoop/etc/hadoop/hdfs-site.xml
    
    <configuration>
            <property>
            <name>dfs.replication</name>
            <value>3</value>
        </property>
        <property>
            <name>dfs.namenode.secondary.http-address</name>
            <value>cm02:50090</value>
        </property>
    </configuration>
    

    5.6 配置集群(完全分布式)

    vi /usr/local/softs/hadoop/etc/hadoop/slaves
    
    cm02
    cm03
    cm04
    

    5.7 格式化NameNode

    hadoop namenode -format
    

    5.7 启动hadoop集群

    /usr/local/softs/hadoop/sbin/start-dfs.sh
    

    网页验证
    http://192.168.111.111:50070

    NameNode DataNode 集群部署结构图

    5.8 上传文件

    hadoop fs -put /usr/local/ALL.rar /
    
    分成6个block

    6 总结

    环境搭建过程中遇到过不少问题,特别是slave从机的网络配置, 经历了无法获取IP, 不能访问外网等, 但都逐一解决了,总结如下:

    6.1 slave网络设置

    1. 文件ifcfg-eth0

    删除HWADDR和UUID两个属性, 因为克隆主机自动生成的地址和系统地址不一致, eth0网卡不会生效
    BOOTPROTO=static, 不要用dhcp, 否则每次启动都是动态IP

    2. 文件70-persistent-net.rules

    每次克隆后, 都删除该文件再重启, 系统会自动加载硬件地址, 并重新动态生成该文件

    6.2 hadoop配置

    1. start-dfs.sh无法启动datanode

    因slave的core-site.xml未配置NameNode, 将master的core-site.xml复制到slave, 并删除master的tmp目录, 重新格式化NameNode

    相关文章

      网友评论

          本文标题:Hadoop入门-环境搭建及集群配置

          本文链接:https://www.haomeiwen.com/subject/byeiuxtx.html