美文网首页程序员
在Ubuntu上安装Hadoop单机版

在Ubuntu上安装Hadoop单机版

作者: 名字想好没 | 来源:发表于2018-12-12 23:32 被阅读0次

    原文地址: https://itweknow.cn/detail?id=52 ,欢迎大家访问。

    前置条件

    安装Hadoop

    1. 前置说明
      文中的hadoop压缩包存放位置为~/apps/hadoop/hadoop-2.8.5.tar.gz,解压后的hadoop地址为~/apps/hadoop/hadoop-2.8.5

    2. 解压hadoop压缩包

      root@test:~/apps/hadoop# tar -xzvf hadoop-2.8.5.tar.gz
      
    3. 配置hadoop-env.sh,其路径为~/apps/hadoop/hadoop-2.8.5/etc/hadoop/httpfs-env.sh。只需要做一个小小的修改,就是将${JAVA_HOME}修改为我们JDK的目录即可。

        export JAVA_HOME=/usr/local/Java/jdk1.8.0_181
      
    4. 配置core-size.xml,其路径为~/apps/hadoop/hadoop-2.8.5/etc/hadoop/core-size.xml。主要是添加了两个配置项fs.defaultFShadoop.tmp.dir

      <configuration>
        <!-- 指定HADOOP所使用的文件系统schema(URI),HDFS的老大(NameNode)的地址 -->
        <property>
          <name>fs.defaultFS</name>
          <value>hdfs://localhost:9000</value>
        </property>
      
        <!-- 指定hadoop运行时产生文件的存储目录 -->
        <property>
          <name>hadoop.tmp.dir</name>
          <value>/root/hadoop/tmp</value>
        </property>
      </configuration>
      
    5. 配置hdfs-site.xml,这里主要配置了HDFS副本的数量,也就是一个文件存在HDFS中的份数。

      <configuration>
        <!-- 指定HDFS副本的数量 -->
        <property>
          <name>dfs.replication</name>
          <value>1</value>                                                                                    
        </property>
      </configuration>
      
      
    6. 配置mapred-site.xml,配置这个的时候会比上面多上那么一步,因为hadoop中这个配置文件的模板名称为mapred-site.xml.template,我们需要改个名字。

      cp mapred-site.xml.template mapred-site.xml
      

      配置文件的内容为:

      <configuration>
        <!-- 指定MapReduce程序运行在yarn上 -->
        <property>
          <name>mapreduce.framework.name</name>
          <value>yarn</value>
        </property>
      </configuration>
      
    7. 配置yarn-site.xml

         <configuration>
           <!-- 指定ResourceManager(YARN的老大)的地址,主机名 -->
           <property>
             <name>yarn.resourcemanager.hostname</name>
             <value>test</value>
           </property>
           <!-- reducer获取数据的方式 -->
           <property>
             <name>yarn.nodemanager.aux-services</name>
             <value>mapreduce_shuffle</value>
           </property>
         </configuration>
      
    8. 将hadoop添加到环境变量中

      export HADOOP_HOME=/root/apps/hadoop/hadoop-2.8.5
      export PATH=export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
      
    9. 使环境变量生效

      root@test:~/apps/hadoop/hadoop-2.8.5# source /etc/profile
      

    测试

    1. 查看hadoop版本
      root@test:~/apps/hadoop/hadoop-2.8.5# hadoop version
      
      你应该可以看到如下结果
      Hadoop 2.8.5
      Subversion https://git-wip-us.apache.org/repos/asf/hadoop.git -r 0b8464d75227fcee2c6e7f2410377b3d53d3d5f8
      Compiled by jdu on 2018-09-10T03:32Z
      Compiled with protoc 2.5.0
      From source with checksum 9942ca5c745417c14e318835f420733
      This command was run using /root/apps/hadoop/hadoop-2.8.5/share/hadoop/common/hadoop-common-2.8.5.jar
      
    2. 启动hdfs,首先切到/root/apps/hadoop/hadoop-2.8.5/sbin目录下,该目录下有很多hadoop的启动脚本,比如start-all.sh是启动所有服务的,start-dfs.sh是单独启动hdfs的。
      (1) 格式化namenode
      hdfs namenode -format
      
      (2) 启动hadoop的全部服务
       ./start-all.sh
      
      (3) jps命令查看启动结果
      root@test:~/apps/hadoop/hadoop-2.8.5/etc/hadoop# jps
      15920 Jps
      15283 SecondaryNameNode
      15430 ResourceManager
      15063 DataNode
      15599 NodeManager
      14879 NameNode
      
      (4) 浏览器查看hdfs的网页端,访问地址http://{虚拟机IP}:50070
      image

    相关文章

      网友评论

        本文标题:在Ubuntu上安装Hadoop单机版

        本文链接:https://www.haomeiwen.com/subject/zhmmhqtx.html