美文网首页
基于hadoop2.2.0分布式搭建

基于hadoop2.2.0分布式搭建

作者: _micang | 来源:发表于2018-07-13 10:47 被阅读57次

    部分信息显示不全,可参照附件文件**********

    1. 集群主机ip

    192.168.1.190  master

    192.168.1.191  slave1

    2. centos系统准备工作

    * 安装ssh: $ sudo yum install ssh

    * 安装rsync: $ sudo yum install rsync//linux实现远程同步的软件

    * ip配置

    3. 服务器SSH无验证双向登陆打通配置

    3.1. 配置服务器ip(此处省略)

    3.2. 修改hosts

     $ sudo vi /etc/hosts

    3.3. 修改hostname

    $ sudo vi /etc/hostname

    修改network文件: $ sudo vi /etc/sysconfig/network

    3.4. 重启网络

    $ service network restart

    3.5. 设置远程无密码登录

    $ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa //产生秘钥

    $ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys //导入authorized_keys

    $ cd ~/.ssh///切入master服务器 .ssh目录

    $ scp authorized_keys hadoop@slave1:~/.ssh/authorized_keys_from_master

    //进入slave1的.ssh目录,并将master目录下的authorized_keys存为slave1服务器目录/home/hadoop/.ssh/authorized_keys_from_keys文件

    $ cat authorized_keys_from_master  >>  authorized_keys//文件追加到authorized_keys

    $ chmod 600 authorized_keys //修改权限为-rw------- root读写权限

    $ chmod 700 /home/hadoop/.ssh/  //修改.ssh权限为root获得所有操作权限

     

    修改完成后各个服务器节点.ssh结构为:

    authorized_keys文件权限为:

    .ssh文件夹权限为:

     

    $ sudo vi /etc/ssh/sshd_config//去掉下述红框注释,保存文件

    $ service sshd restart //重启ssh服务

    【注意】:以上操作根据每台Server情况动作重复进行。

    3.6. 测试是否配置成功

    本机三种ssh登录测试(localhost, ip ,hostname)

    服务器节点相互ssh无密码登录连接测试

    【配置要点总结】

    >修改文件:hosts hostname network

    >生成公钥私钥,节点相互拷贝

    >配置sshd文件

    >修改两个文件权限authorized_keys与.ssh

    【参照文档】

    http://www.aboutyun.com/thread-6487-1-1.html Hadoop伪分布安装过程:单机环境搭建指南

    http://www.aboutyun.com/blog-3779-85.html CentOS6.4之图解SSH无验证双向登陆配置

    4. 安装hadoop及配置hadoop集群

    4.1. 下载hadoop

    $ wget http://121.5.21.7/files/617800000336092D/www-eu.apache.org/dist/hadoop/common/hadoop-2.7.3/hadoop-2.7.3.tar.gz

    4.2. 修改文件权限

    $ chmod 770 hadoop-2.7.3.tar.gz//-rwxrwx---

    4.3. 解压文件并重命名

    $ tar -zxvf hadoop-2.7.3.tar.gz

    $ mv hadoop-2.7.3 hadoop //重命名

    4.4. 安装jdk配置环境变量

    亲,不会百度吧,太晚了小编就不写了,好困

    4.5.修改配置文件列表< 7个>:

    ~/hadoop-2.2.0/etc/hadoop/core-site.xml

    ~/hadoop-2.2.0/etc/hadoop/hdfs-site.xml

    ~/hadoop-2.2.0/etc/hadoop/hadoop-env.sh

    ~/hadoop-2.2.0/etc/hadoop/yarn-env.sh

    ~/hadoop-2.2.0/etc/hadoop/slaves

    ~/hadoop-2.2.0/etc/hadoop/mapred-site.xml

    ~/hadoop-2.2.0/etc/hadoop/yarn-site.xml

    4.6. 修改hadoop配置文件

    $ cd /home/hadoop/server/hadoop-2.7.3/etc/hadoop//切换到配置文件目录下

    $ vi core-site.xml //修改sore-site.xml文件

    【注意】

    一定要注意目录一定要存在/home/hadoop/tmp/hadoop,文件夹权限为drwxrwxr-x

     

    $ vi hdfs-site.xml //修改hdfs-site.xml文件

    【注意】

    文件路径是否存在,文件权限为drwxrwxr-x

     

    $ vi hadoop-env.sh   //修改java_home变量值

    $ vi yarn-env.sh  //修改java_home变量值

     

    $ vi slaves //保存所有slave节点

    $ cp mapred-site.xml.template mapred-site.xml

    $ vi mapred-site.xml

    $ vi yarn-site.xml

    4.7 拷贝master-hadoop至slave1

    $ scp -r /home/hadoop/server/hadoop hadoop@slave1:~/server/

     

    4.8 修改配置文件脚本

    4.9 添加配置环境变量

    $ vi ~/.bashrc

    $ source ~/.bashrc

     

    4.10 启动hadoop(master节点)

    $ cd /home/hadoop/server/hadoop/bin

    $ hadoop namenode –format

    4.11 启动hdfs

    $ cd /home/hadoop/server/hadoop/sbin

    $ start-all.sh

    查看master有如下启动进程

    查看slave1有如下启动进程

    启动成功

     

    【参照文档】

     http://www.aboutyun.com/thread-7684-1-1.html

    相关文章

      网友评论

          本文标题:基于hadoop2.2.0分布式搭建

          本文链接:https://www.haomeiwen.com/subject/ghkjpftx.html