美文网首页
【1】安装hadoop

【1】安装hadoop

作者: 07b287742148 | 来源:发表于2018-09-17 23:25 被阅读5次

    现在才接触大数据,晚么?找个地方记录下学习成长,光是各个组件就用的头疼,记一下安装情况。

    1. 安装环境

    • 安装包

    jdk1.8

    hadoop2.7

    • 系统环境

    centos7

    2. JDK安装

    • 上传压缩包,解压,重命名至 /home/common/jdk1.8

      进入目录 cd /home/common/

      解压 tar -zxvf jdk-8u181-linux-x64.tar

      重命名 mv jdk-8u181-linux-x64.tar jdk1.8

    • 配置环境变量

      vim /etc/profile

      输入以下内容(这里先把hadoop的环境变量一起配置了)

      export JAVA_HOME=/home/common/jdk1.8
      export HADOOP_HOME=/home/common/hadoop2.7
      export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/sbin
      

      使环境变量生效

      source /etc/profile

      此时在命令行打出java -version显示如下信息则安装成功:

      java version "1.8.0_181"
      Java(TM) SE Runtime Environment (build 1.8.0_181-b13)
      Java HotSpot(TM) 64-Bit Server VM (build 25.181-b13, mixed mode)
      
      

    3. hadoop安装

    这里安装的是集群模式,三台机器vm01,vm02,vm03分配如下

    hostname nn dn rm nm snn
    vm01
    vm02
    vm03

    nn:NameNode

    dn:DataNode

    rm:ResourceManager

    nm:NodeManager

    snn:SecondNameNode

    • 上传解压重命名为/home/common/hadoop2.7

    • 配置环境变量,参考jdk安装步骤

    • 进入配置文件目录,修改配置文件hadoop2.7/etc/hadoop/

    • 配置core-site.xml

      <!-- 指定hadoop的文件存储系统及日志文件 -->
      <property>
          <name>fs.defaultFS</name>
          <value>hdfs://vm01:9000</value>
      </property>
      
      <property>
          <name>hadoop.tmp.dir</name>
          <value>/home/tmp/hadoop</value>
      </property>
      
    • 配置hdfs-site.xml

      <!-- 备份数以及snn节点 -->
      <property>
          <name>dfs.replication</name>
          <value>1</value>
      </property>
      
      <property>
           <name>dfs.secondary.http.address</name>
           <value>vm01:50090</value>
      </property>
      
    • 配置mapred-site.xml (这个需要复制重命名)

      <!-- 对接yarn -->
      <property>
          <name>mapreduce.framework.name</name>
          <value>yarn</value>
      </property>
      
    • 配置yarn-site.xml

      <!-- 配置rm -->
      <property>
          <name>yarn.resourcemanager.hostname</name>
          <value>vm01</value>
      </property>
      
      <property>
          <name>yarn.nodemanager.aux-services</name>
          <value>mapreduce_shuffle</value>
      </property>
      
    • 配置hadoop-env.sh`

      export JAVA_HOME=/home/common/jdk1.8
      
    • 配置slaves

      vm01
      vm02
      vm03
      
    • 将vm01上的hadoop发送到各个集群节点

      cd /home/common/

      scp -r hadoop2.7 root@vm02:/home/common/

      scp -r hadoop2.7 root@vm03:/home/common/

    • 启动hadoop

      1. 在hadoop的bin目录下初始化namenode(只需第一次)

        hadoop namenode -format

      2. 启动hdfs集群(该命令在hadoop的sbin目录下,因为之前配置了环境变量,可以直接运行)

        start-dfs.sh

      3. 启动yarn集群

        start-yarn.sh

      4. 此时进入web页面可以查看各个集群启动情况
        (在windows浏览器查看时记得配置hosts,否则要用ip地址来访问)

        hdfs:http://vm01:50070/

        yarn:http://vm01:8088/

      或者在linux命令行中输入jps查看启动线程情况

      //vm01节点
      [root@vm01 bin]# jps
      2480 NodeManager
      1941 NameNode
      2215 SecondaryNameNode
      2727 Jps
      2360 ResourceManager
      2063 DataNode
      
      //vm02节点
      [root@vm02 common]# jps
      1681 DataNode
      1768 NodeManager
      1865 Jps
      
      //vm03节点
      [root@vm03 ~]# jps
      1734 NodeManager
      1831 Jps
      1646 DataNode
      
      
      

      每个节点启动的线程应该是和前面的表格对应的配置是一致的

    • 至此,hadoop安装完毕,可以在linux中输入hadoop命令进行相关操作

      #查看hdfs文件系统下根目录
      hadoop fs -ls /
      
      #上传文件至根目录(/)下
      hadoop fs -put /home/common/helloworld /
      
      #查看某个文件内容
      hadoop fs -cat /helloworld.txt
      
      

    4. hadoop中各个UI常用端口

    hdfs : 50070

    yarn: 8088

    hdfs文件系统:9000

    相关文章

      网友评论

          本文标题:【1】安装hadoop

          本文链接:https://www.haomeiwen.com/subject/llujnftx.html