美文网首页我爱编程
Hadoop集群完全分布式搭建

Hadoop集群完全分布式搭建

作者: 小熊威尼的夏天 | 来源:发表于2016-07-05 19:46 被阅读0次

    Hadoop先导

    大数据时代的核心是计算和数据处理,在计算方面,主要是通过分布式计算完成海量数据的计算,在海量数据的计算方面,目前集中于3个场景,离线计算:Hadoop,内存计算:Spark,实时计算(流式计算):Storm,Flink等。Hadoop的搭建对于入门是必不可少的,以前曾经搭建过,但是很久没弄了,现在重新拾起Hadoop,Spark等,搭建其运行环境是第一步,这里详细记录我的步骤,个人负责的认为,按照我的步骤,一定能成功搭建出完全分布式的Hadoop集群!

    Hadoop三种运行模式

    • 单机模式

    单击模式是指:Hadoop被配置成以非分布式模式运行的一个独立Java进程,在一个JVM中运行。这对调试非常有帮助。

    • 伪分布式模式

    伪分布式是指:一个机器上,即当namenode,又当datanode,是jobtracker也是tasktracker。没有所谓的在多台机器上进行真正的分布式计算,故称为伪分布式模式

    • 完全分布式模式

    namenode,datanode,jobtracker,tasktracker各司其职。可以部署几十上千个节点中。

    在这里,介绍完全分布式模式的搭建过程。

    第一步:集群规划

    按照Hadoop集群的基本要求,其中一个是Master节点,用于运行Hadoop程序中的namenode,sencondorynamenode和jobtracker任务。另外一个用于冗余目的。Slaver节点用于运行hadoop程序中的datanode和tasktracker任务。所以模拟hadoop集群至少三个节点。在实际生产环境中,部署的肯定是几十上千台,这个时候,至少有2+个Master和2+Slaver,所以,其实部署4台是比较适合,但是由于4台对机器要求,因为我是在VM里面进行安装集群,所以能安装的数量有限,同时部署更多机器,主要是Hadoop文件的配置上,不是搭建上的意义,所以3台已经足够能理解Hadoop分布式集群了。在这里我先安装一台机器Master,两台Slaver通过虚拟机复制即可。废话不多说,直接实践最重要。

    第二步:搭建说明

    在VM中搭建Hadoop完全分布式集群是十分容易的,因为可以通过克隆操作系统,克隆多个虚拟系统,克隆的虚拟操作系统的IP地址是连续的。纵观搭建Hadoop的整个流程,第一,每天机器都必须有JDK,ssh,vim(可选),然后每台机器能免ssh登录。第二就是每台机器安装Hadoop,配置Hadoop文件。在这里搭建的流程,其中就是上述两个步骤。

    第三步:在VM安装Linux虚拟机

    因为CentOS需要下载,我现成有Ubuntu14.04-64位的镜像文件,所以直接安装这个,但是为了体验真实的生产环境,我建议从CentOS入手,因为CentOS更适合实际生产。

    1. 安装Linux虚拟机十分简单,在此处略过。
    2. 安装好后安装VM tools。
      3.安装搜狗输入法,毕竟容易中英文切换,如果习惯中文,安装中文包。
      4.初始化root用户的密码,新建一个用户,在这里我是bigger用户,完成这些可以进入第二步。

    第四步:安装JDK,ssh,vim

    JDK

    export JAVA_HOME=/lib/jvm/jdk1.7.0_76 
    export JRE_HOME=${JAVA_HOME}/jre  
    export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib  
    export PATH=${JAVA_HOME}/bin:$PATH
    
    • 更新配置文件
      source /etc/profile
    • 验证
      java -version


    安装ssh和vim

        sudo apt-get install vim
        sudo apt-get install openssh-server
    

    查看ssh状态

    sudo ps -e | grep ssh
    

    如果有sshd,说明ssh服务已经启动



    如果ssh关闭了,可以使用开启服务

        service ssh start
    

    第五步:开始准备克隆

    这时候,虚拟机,安装了JDK,vim,ssh,里面保存了Hadoop安装文件,这个时候,我们就可以进行虚拟机的克隆。



    克隆两台,分别为Slave1和Slave2.
    这时候显示如下:
    这时候,三台机器的ip分别为:(Master) 192.168.175.128,(Slaver1)192.168.175.131,(Slaver2)192.168.175.132
    Master:


    Slaver1:

    Slaver2:

    这时候配置host文件,这样每台机器就能根据名字做IP地址的映射

    第六步:配置免SSH

    配置的SSH的原因是,比如Hadoop需要访问另一台机器,这时候如果不需要密码能直接连接该多好,这就是配置SSH免密码登录的原因。

    ssh-keygen -t rsa
    

    Master:

    Master秘钥存放:

    Slaver1和秘钥存放:

    Slaver2 和秘钥存放:


    这时候在目录:~/.ssh下生成了公钥和私钥,谁有了这个公钥,就能访问这台机器不需要密码了,所以三台机器的公钥是共享的。在这里我们发现没有authorized_keys 文件夹,所以直接用命令追加。

    cat id_rsa.pub >> authorized_keys
    
    

    重启
    登录

    ssh localhost  
    
    

    这时候如果需要这台机器配置互相免密码登录:
    原理如下:A若想无密码访问B,就需要把公钥发送给B,B把A发来的公钥添加到自己的授权文件里。所以步骤如下:

    1.将Slaver1和Slaver2的公钥都发给Master,Master在自己的授权追加。
    命令如下:

    scp ~/.ssh/id_rsa.pub bigger@192.168.175.128:~/Desktop
    
    

    复制桌面,比较感性

    传输完成后

    此时,进行追加:

     cat ~/Desktop/id_rsa.pub /home/bigger/.ssh/authorized_keys
    
    

    这时候,配置的Slaver1:192.168.175.131的公钥,所以,检验是否能免密码:



    IP变化了,所以登录成功!

    同理。增加Slaver2的机器到Master:
    传输:



    追加:

    检验:

    这时候,Master的文件有三个机器的公钥,后续直接复制到每台机器并追加即可。

    • 首先将授权文件复制到桌面
    • 传给每台机器
    • 追加公钥
    cat /home/bigger/Desktop/authorized_keys /home/bigger/.ssh/authorized_keys 
    
    

    验证:
    登录Master:


    登录Slaver2:


    对于Slaver2重复上述,至此,免ssh配置完成!


    最后是权限修改:

    chmod 700 ~/.ssh
    chmod 600 ~/.ssh/authorized_keys
    
    

    第七步:开始Hadoop安装的配置!

    • 复制解压后的Hadoop文件到/lib文件夹下面


    • 配置Hadoop的配置文件,Hadoop2.6的配置文件在
      /hadoop-2.6.0/etc/hadoop下面


    • 配置涉及7个文件
      ~/hadoop/etc/hadoop/hadoop-env.sh
      ~/hadoop/etc/hadoop/yarn-env.sh
      ~/hadoop/etc/hadoop/slaves
      ~/hadoop/etc/hadoop/core-site.xml
      ~/hadoop/etc/hadoop/hdfs-site.xml
      ~/hadoop/etc/hadoop/mapred-site.xml
      ~/hadoop/etc/hadoop/yarn-site.xml
    • 配置文件
      1.hadoop-env.sh
      该文件是hadoop运行基本环境的配置,需要修改的为java虚拟机的位置。
      故在该文件中修改JAVA_HOME值为本机安装位置
      export JAVA_HOME=/lib/jdk


    2.yarn-env.sh
    该文件是yarn框架运行环境的配置,同样需要修改java虚拟机的位置。
    在该文件中修改JAVA_HOME值为本机安装位置
    export JAVA_HOME=/lib/jdk

    3.修改slaves文件
    添加
    slaver1
    slaver2

    4:core-site.xml

    这个是hadoop的核心配置文件,这里需要配置的就这两个属性,fs.default.name配置了hadoop的HDFS系统的命名,位置为主机的9000端口;hadoop.tmp.dir配置了hadoop的tmp目录的根位置。这里使用了一个文件系统中没有的位置,所以要先用mkdir命令新建一下。

    <configuration>
    <property>
    <name>hadoop.tmp.dir</name>
    <value>/data/hadoop-${user.name}</value>
    </property>
    <property>
    <name>fs.default.name</name>
    <value>hdfs://master:9000</value>
    </property></configuration>
    
    

    5:hdfs-site.xml
    这个是hdfs的配置文件,dfs.http.address配置了hdfs的http的访问位置;dfs.replication配置了文件块的副本数,一般不大于从机的个数。

    <configuration>
    <property>
    <name>dfs.http.address</name>
    <value>master:50070</value>
    </property>
    <property>
    <name>dfs.namenode.secondary.http-address</name><value>master:50090</value>
    </property>
    <property>
    <name>dfs.replication</name>
    <value>1</value>
    </property>
    </configuration>
    

    6:mapred-site.xml
    这个是mapreduce任务的配置,由于hadoop2.x使用了yarn框架,所以要实现分布式部署,必须在mapreduce.framework.name属性下配置为yarn。mapred.map.tasks和mapred.reduce.tasks分别为map和reduce的任务数,至于什么是map和reduce,可参考其它资料进行了解。
    其它属性为一些进程的端口配置,均配在主机下。

    <configuration>
    <property>
    <name>mapred.job.tracker</name>
    <value>master:9001</value>
     </property>
    <property>
    <name>mapred.map.tasks</name>
    <value>20</value>
    </property><property>
    <name>mapred.reduce.tasks</name>
    <value>4</value>
    </property><property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
    </property>
    <property>
    <name>mapreduce.jobhistory.address</name><value>master:10020</value>
    </property>
    <property><name>mapreduce.jobhistory.webapp.address</name><value>master:19888</value>
    </property>
    </configuration>
    

    配置文件7:yarn-site.xml
    该文件为yarn框架的配置,主要是一些任务的启动位置

    <configuration>
    <property>
     <name>yarn.resourcemanager.address</name>
    <value>master:8032</value>
    </property>
    <property>
    <name>yarn.resourcemanager.scheduler.address</name>
     <value>master:8030</value>
    </property>
    <property>
     <name>yarn.resourcemanager.webapp.address</name>
     <value>master:8088</value>
    </property>
    <property>
    <name>yarn.resourcemanager.resource-tracker.address</name><value>master:8031</value>
    </property>
    <property>
    <name>yarn.resourcemanager.admin.address</name><value>master:8033</value>
    </property>
    <property>
    <name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value>
    </property>
    <property>
    <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name><value>org.apache.hadoop.mapred.ShuffleHandler</value></property>
    </configuration>
    

    将这些文件都复制到所有节点中
    第八步:启动和验证

    • 进行格式化:
      sudo ./bin/hdfs namenode -format


    • 启动hdfs:
      ./sbin/start-dfs.sh
      此时在Master上面运行的进程有:namenode secondarynamenode
      Slave1和Slave2上面运行的进程有:datanode
      启动yarn: ./sbin/start-yarn.sh
      此时在Master上面运行的进程有:namenode secondarynamenode resourcemanager

    Slave1和Slave2上面运行的进程有:datanode nodemanager

    • 检查启动结果
      查看集群状态:./bin/hdfs dfsadmin –report
      查看文件块组成: ./bin/hdfsfsck / -files -blocks
      查看HDFS: http://master:50070(主机IP)
      查看RM: http:// master:8088(主机IP)

    相关文章

      网友评论

        本文标题:Hadoop集群完全分布式搭建

        本文链接:https://www.haomeiwen.com/subject/ifbfjttx.html