Mac安装Hadoop

作者: jose_dl | 来源:发表于2017-07-15 17:30 被阅读0次
    查看mac系统Java版本和安装目录
    /usr/libexec/java_home -V
    

    应该能查看到结果

    Matching Java Virtual Machines (1):
        1.8.0_131, x86_64:  "Java SE 8" /Library/Java/JavaVirtualMachines/jdk1.8.0_131.jdk/Contents/Home
    
    修改各自的hostname

    用pd新建一个ubuntu虚拟机,配置好一个然后克隆2个就好。

    关闭防火墙

    ubutntu中命令是

     ufw disable
    
    修改hostname

    <code>su -</code> 进入到root用户

    vim /etc/hostname
    
    配置静态IP
    • master设置为192.168.3.74
    • salve1设置为192.168.3.75
      可以在网络那里用图形化界面edit设置。GateWay设置成路由器的地址
    • salve2设置为192.168.3.80
      可以在网络那里用图形化界面edit设置。GateWay设置成路由器的地址
      然后各个节点之间可以ping通
    WechatIMG10.jpeg
    修改hosts文件
    vim /etc/hosts
    
    安装JDK
    SSH免密钥登陆

    该步骤都是在普通用户下完成

    Master节点操作:
    • 终端生成密钥,一路回车
    ssh-keygen -t rsa
    
    • 复制公钥文件
    cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
    
    • 修改 authorized_keys 文件的权限,命令如下:
    chmod 600 ~/.ssh/authorized_keys
    
    slave节点
    • 在终端生成密钥,命令如下(一路点击回车生成密钥)
    ssh-keygen -t rsa
    
    • 将 authorized_keys 文件移动到.ssh 目录
    mv authorized_keys ~/.ssh/
    
    • 修改 authorized_keys 文件的权限,命令如下:
     cd ~/.ssh
    chmod 600 authorized_keys
    
    • 如果出现Agent admitted failure to sign using the key
    ssh-add   ~/.ssh/id_rsa
    
    • 验证
    ssh slave1
    
    Hadoop部署配置

    每个节点配置一样,所以在master配置好复制到各个slave就好
    进入到普通用户下。首先我把hadoop2-5-2放在/home/yubin下

    • 配置环境变量 hadoop-env.sh.就是配置JAVA_HOME
    WechatIMG14.jpeg
    • 配置环境变量 yarn-env.sh 就是配置JAVA_HOME
    export JAVA_HOME=/usr/java/jdk1.8.0_111
    
    • 配置核心组件 core-site.xml
    <property>
                <name>fs.defaultFS</name>
                <value>hdfs://192.168.3.74:9000</value>
    </property>
    <property>
                <name>hadoop.tmp.dir</name>
                <value>/home/yubin/hadoop-2.5.2/hadoopdata</value>     
    </property>
    ```
    - 配置文件系统 hdfs-site.xml
    ```
    <configuration>
        <property>
                <name>dfs.replication</name>
                <value>1</value>
         </property>
    </configuration>
    ```
    - 配置文件系统 yarn-site.xml
    ```
    <property>
                <name>yarn.nodemanager.aux-services</name>
                <value>mapreduce_shuffle</value>
    </property>
    <property>
                <name>yarn.resourcemanager.hostname</name>
                <value>master</value>
    </property>
    ```
    - 配置计算框架 mapred-site.xml
    ```
    <property>
            <name>mapreduce.framework.name</name>
            <value>yarn</value>
      </property>
    ```
    - 在 master 节点配置 slaves 文件
    ```
    master
    slave1
    slave2
    ```
    - 复制到从节点1
    ```
    scp -r hadoop-2.5.2 slave1:~/
    ```
    - 复制到从节点2
    ```
    scp -r hadoop-2.5.2 slave2:~/
    ```
    #####启动集群
    也是在普通用户下进行
    - 配置hadoop环境变量,在/etc/profile中
    ```
    export HADOOP_HOME=/home/yubin/hadoop-2.5.2
    export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
    ```
    然后source
    - 创建数据目录
    ```
    mkdir /home/yubin/hadoop-2.5.2/hadoopdata
    ```
    - 格式化文件系统
    ```
    hdfs namenode -format
    ```
    - 启动
    ```
    sbin/start-all.sh
    ```
    - JPS查看进程
    - WEB查看
    ```
     http://master:50070/
    ```
    
    
    
    

    相关文章

      网友评论

        本文标题:Mac安装Hadoop

        本文链接:https://www.haomeiwen.com/subject/jrxzhxtx.html