美文网首页
Hadoop2.7.2完全分布式环境搭建+wordcount简单

Hadoop2.7.2完全分布式环境搭建+wordcount简单

作者: lewzylu | 来源:发表于2017-07-18 23:11 被阅读0次

    一、准备环境

    1.1安装

    1)准备若干台机器
    2)安装配置系统:CentOS-7.0-1406-x86_64-DVD.iso
    3)安装JAVA环境:jdk-8u131-linux-x64.gz
    4)hadoop2.7.2:hadoop-2.7.2.tar.gz

    1.2网络配置

    ifconfig -a 查看各台机器的ip,相互ping一下,看是否可以ping通。
    记录个台机器的ip。

    二、配置CentOS

    2.1配置hosts

    # vi /etc/hosts
    
    编辑内容:
    202.196.37.40 master
    202.196.37.41 slave1
    202.196.37.42 slave2
    202.196.37.43 slave3
    .......ip地址替换为真实ip
    

    2.2关闭防火墙

    # systemctl status firewalld.service  #检查防火墙状态
    # systemctl stop firewalld.service  #关闭防火墙
    # systemctl disable firewalld.service  #禁止开机启动防火墙
    

    2.3时间同步

    # yum install -y ntp  #安装ntp服务
    # ntpdate cn.pool.ntp.org  #同步网络时间
    

    2.4安装配置jdk

    上传jdk-8u131-linux-x64.gz 安装包到root根目录

    # mkdir /usr/java
    # tar -zxvf jdk-8u131-linux-x64.gz -C/usr/java/
    # rm -rfjdk-8u131-linux-x64.gz
    

    2.5各个主机之间复制jdk

    # scp -r /usr/java slave1:/usr
    # scp -r /usr/java slave2:/usr
    # scp -r /usr/java slave3:/usr
    .......
    

    2.6配置各个主机jdk环境变量

    # vi /etc/profile
    

    编辑内容

    export JAVA_HOME=/usr/java/jdk1.8.0_91
    export PATH=$JAVA_HOME/bin:$PATH
    exportCLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
    # source/etc/profile  #使配置文件生效
    # java -version  #查看java版本
    

    2.7配置ssh无密钥访问

    分别在各个主机上检查ssh服务状态:

    # systemctl status sshd.service  #检查ssh服务状态
    # yum install openssh-server openssh-clients  #安装ssh服务,如果已安装,则不用执行该步骤
    # systemctl start sshd.service  #启动ssh服务,如果已安装,则不用执行该步骤
    

    分别在各个主机上生成密钥

    # ssh-keygen -t rsa  #生成密钥
    

    在slave1上

    cp ~/.ssh/id_rsa.pub ~/.ssh/slave1.id_rsa.pub
    scp ~/.ssh/slave1.id_rsa.pub master:~/.ssh
    

    在slave2上

    cp ~/.ssh/id_rsa.pub ~/.ssh/slave2.id_rsa.pub
    scp ~/.ssh/slave2.id_rsa.pub master:~/.ssh
    

    以此类推。
    在master上

    cd ~/.ssh
    cat id_rsa.pub >> authorized_keys
    cat slave1.id_rsa.pub >>authorized_keys
    cat slave2.id_rsa.pub >>authorized_keys
    scp authorized_keys slave1:~/.ssh
    scp authorized_keys slave2:~/.ssh
    scp authorized_keys slave3:~/.ssh
    

    三、安装配置hadoop

    3.1安装hadoop

    上传hadoop-2.7.2.tar.gz安装包到root根目录

    # tar -zxvf hadoop-2.7.2.tar.gz -C /usr
    # rm -rf hadoop-2.7.2.tar.gz
    # mkdir /usr/hadoop-2.7.2/tmp
    # mkdir /usr/hadoop-2.7.2/logs
    # mkdir /usr/hadoop-2.7.2/hdf
    # mkdir/usr/hadoop-2.7.2/hdf/data
    # mkdir /usr/hadoop-2.7.2/hdf/name
    

    在hadoop-2.7.2/etc/hadoop目录下

    配置hadoop

    修改hadoop-env.sh文件

    增加 export JAVA_HOME=/usr/java/jdk1.8.0_91

    修改yarn-env.sh

    export JAVA_HOME=/usr/java/jdk1.8.0_91

    修改slaves

    配置内容:
    删除:localhost
    添加:
    slave1
    slave2
    slave3

    修改core-site.xml

    <configuration>
      <property>
        <name>fs.default.name</name>
        <value>hdfs://master:9000</value>
      </property>
      <property>
        <name>hadoop.tmp.dir</name>
        <value>file:/data/hadoop/hadoop-2.7.4/tmp</value>
      </property>
    </configuration>
    

    修改hdfs-site.xml

    <configuration>
      <property>
        <name>dfs.datanode.data.dir</name>
        <value>/data/hadoop/hadoop-2.7.4/hdf/data</value>
        <final>true</final>
      </property>
      <property>
        <name>dfs.namenode.name.dir</name>
        <value>/data/hadoop/hadoop-2.7.4/hdf/name</value>
        <final>true</final>
      </property>
    </configuration>
    

    修改mapred-site.xml

    <configuration>
      <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
      </property>
      <property>
        <name>mapreduce.jobhistory.address</name>
        <value>master:10020</value>
      </property>
      <property>
        <name>mapreduce.jobhistory.webapp.address</name>
        <value>master:19888</value>
      </property>
    </configuration>
    

    修改yarn-site.xml

    <configuration>
      <property>
        <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
        <value>org.apache.mapred.ShuffleHandler</value>
      </property>
      <property>
          <name>yarn.nodemanager.aux-services</name>
          <value>mapreduce_shuffle</value>
      </property>
      <property>
        <name>yarn.resourcemanager.address</name>
        <value>master:8032</value>
      </property>
      <property>
        <name>yarn.resourcemanager.scheduler.address</name>
        <value>master:8030</value>
      </property>
      <property>
        <name>yarn.resourcemanager.resource-tracker.address</name>
        <value>master:8031</value>
      </property>
      <property>
        <name>yarn.resourcemanager.admin.address</name>
        <value>master:8033</value>
      </property>
      <property>
        <name>yarn.resourcemanager.webapp.address</name>
        <value>master:8088</value>
      </property>
    </configuration>
    

    各个主机之间复制hadoop

    # scp -r /data/hadoop/hadoop-2.7.4 slave1:/data/hadoop
    # scp -r /data/hadoop/hadoop-2.7.4 slave2:/data/hadoop
    # scp -r /data/hadoop/hadoop-2.7.4 slave3:/data/hadoop
    

    各个主机配置hadoop环境变量

    # vi /etc/profile
    编辑内容:
    export HADOOP_HOME=/data/hadoop/hadoop-2.7.4
    export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
    export HADOOP_LOG_DIR=/data/hadoop/hadoop-2.7.4/logs
    export YARN_LOG_DIR=$HADOOP_LOG_DIR
    
    # source /etc/profile  #使配置文件生效
    

    3.2启动hadoop

    格式化namenode

    # cd /data/hadoop/hadoop-2.7.4/sbin
    # hdfs namenode -format
    

    启动

    # cd /data/hadoop/hadoop-2.7.4/sbin
    # start-all.sh
    

    检查进程

    # jps
    
    master主机包含ResourceManager、SecondaryNameNode、NameNode等,则表示启动成功,例如
    2212 ResourceManager
    2484 Jps
    1917 NameNode
    2078 SecondaryNameNode
     
    ![Uploading image_385194.png . . .]
    
    各个slave主机包含DataNode、NodeManager等,则表示启用成功,例如
    17153 DataNode
    17334 Jps
    17241 NodeManager
    

    运行wordcount

    由于hadoop自带wordcount例程所以就可以直接调用了
    在启动hadoop之后
    我们可以通过一下命令来对hdfs中的文件进行操作

    # hadoop fs -mkdir input
    # hadoop fs -put input.txt /input
    # hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar wordcount /input /output/
    

    出现以上结果就说明已经成功了

    查看输出目录

    hadoop fs -ls /output
    

    查看输出结果

    hadoop fs -cat /output/part-r-00000
    

    出现类似以下结果

    部分转自http://blog.csdn.net/sinat_30569973/article/details/52232850

    相关文章

      网友评论

          本文标题:Hadoop2.7.2完全分布式环境搭建+wordcount简单

          本文链接:https://www.haomeiwen.com/subject/hvgwhxtx.html