美文网首页程序员HadoopHadoop
Hadoop2.6.0 单机、伪分布式部署

Hadoop2.6.0 单机、伪分布式部署

作者: dzgdp888 | 来源:发表于2016-01-11 22:29 被阅读813次
系统环境:
操作系统:CentOS 6.5
Hadoop:2.6.0

为了方便起见,打印当前系统状态


当前系统状态

vim /etc/hosts,host信息如下:

127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
::1         localhost localhost.localdomain localhost6 localhost6.localdomain6
10.211.55.150 master

准备工作

  1. 安装idk 1.7
  2. 配置su命令免密码,详见我的另一篇文章《免密码使用sudo和su》
    以下流程有些步骤必须需要切换到root权限执行,为了便于叙述,后续所有步骤都在root权限下操作
  3. 配置ssh免密码登录
ssh-keygen -t rsa -P ""  //然后一直回车即可
cat /root/.ssh/id_rsa.pub >> /root/.ssh/authorized_keys

配置完成后可以使用ssh localhost测试下是否配置成功

  1. 下载hadoop2.6.0 apache官网下载地址

Hadoop安装

+ 解压并移动文件到hadoop文件夹

su root
cd /
tar -zxvf hadoop-2.6.0.tar.gz
mkdir hadoop
mv hadoop-2.6.0 hadoop
  • 系统环境变量
export HADOOP_HOME=/hadoop/hadoop-2.6.0
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
  • Hadoop环境变量
cd /hadoop/hadoop-2.6.0/etc/hadoop
vi hadoop-env.sh

修改:

export JAVA_HOME=/usr/jdk1.7.0_80

Hadoop单机模式验证

所谓的本地模式:在运行程序的时候,比如wordcount是在本地磁盘运行的

到这一步时,单机模式已经部署完毕,我们可以跑一个小程序验证下。

  • 我们先切换到Hadoop目录,创建一个input文件夹,并拷贝一些文件到该文件夹中。
cd $HADOOP_HOME
mkdir input
cp etc/hadoop/*.xml input
  • 执行下hadoop自带的wordcound小程序验证
hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.0.jar wordcount input output
  • 查看执行结果
cat output/*

这里就不演示运算结果了,一般也不会出什么问题,我们继续配置伪分布模式。

Hadoop伪分布模式

切换路径到/hadoop/hadoop-2.6.0/etc/hadoop

  • vi core-site.xml
<configuration>

<property>
<name>hadoop.tmp.dir</name>
<value>/hadoop/tmp</value>
</property>

<!--
  接收Client连接的RPC端口,用于获取文件系统metadata信息。
-->
<property>
<name>fs.default.name</name>
<value>hdfs://master:9000</value>
</property>

</configuration>

  • vi hfs-site.xml
<configuration>
<!--
  备份只有一份。
-->
<property>
<name>dfs.replication</name>
<value>1</value>
</property>

<property>
<name>dfs.namenode.name.dir</name>
<value>/hadoop/dfs/name</value>
</property>

<property>
<name>dfs.datannode.data.dir</name>
<value>/hadoop/dfs/data</value>
</property>
</configuration>

如果不想让程序运行在yarn上,到此为止配置已经完成,我们可以验证下。
首先我们需要创建hadoop临时文件夹和hdfs文件夹

cd /hadoop
mkdir tmp
mkdir dfs/{name,data}
  • 格式化namenode
hdfs namenode -format
  • 启动集群
start-dfs.sh

启动后我们可以通过管理页面上看到相应的信息,显示如下页面证明启动成功。
浏览器输入:localhost:50070

NameNode Information
当然,我们可以运行下wordcount验证下(方法同yarn部分)

yarn配置

还是切换路径到/hadoop/hadoop-2.6.0/etc/hadoop

  • vi mapred-site.xml
    这里需要注意,2.6.0并没有提供mapred-site.xml文件,而是提供了一个mapred-site.xml.template文件,这里我们需要将扩展名中的.template去掉
mv mapred-site.xml.template mapred-site.xml

接着修改文件内容

<configuration>

<!--
<property>
<name>mapred.job.tracker</name>
<value>master:9001</value>
</property>
-->

<property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>

</configuration>
                  

这里还要注意下,如果不想程序运行在yarn上,还需要将template后缀加上,要不会运行失败。

  • vi yarn-site.xml
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>

<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>

下面还是验证运行wordcount验证下:

  • 先停止集群
stop-all.sh
  • 启动集群
start-dfs.sh
start-yarn.sh
  • 查看hadoop运行状态
hdfs dfsadmin -report
运行报告

启动成功后也可以在hadoop进程管理页面中查看,浏览器输入localhost:8088

hadoop进程管理页面

在这里我们可以看到hadoop运行的程序详细信息,由于目前还没有执行任何程序,所以这里什么都没显示。

  • 在hdfs上创建input文件夹
hdfs dfs -mkdir -p input
  • 拷贝一些本地文件到hdfs的input文件夹中,执行路径切换到/hadoop/hadoop-2.6.0
hdfs dfs -put etc/hadoop input
  • 执行wordcount程序
hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.0.jar wordcount input output

执行过程如图:

执行过程

执行成功后,控制台中会显示 Job job_1452520008224_0001 completed successfully。

  • 查看结果
hdfs dfs -cat output/*

词频统计结果,部分截图(这个结果和你input文件夹内容相关)

wordcount结果展示

你可以将结果从hdfs内拷贝到当前路径中

hdfs dfs -get output output

hdfs常用命令,可以详见本人另一篇文章 《常用HDFS命令》

到此,Hadoop单机模式和伪分布式模式已经介绍完。

问题说明:

WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable

网上查了查,很多解释说是hadoop-2.6.0.tar.gz安装包是在32位机器上编译的,64位的机器加载本地库.so文件时出错。可我找了下,发现官网上下载的安装包实际上就是64位的。估计有可能是某些系统不支持本地库吧,** 这个不影响使用 **,大家可以无视。

相关文章

  • Hadoop安装攻略

    1.Hadoop安装教程_单机/伪分布式配置_Hadoop2.6.0/Ubuntu14.04http://dbla...

  • Hadoop2.6.0 单机、伪分布式部署

    为了方便起见,打印当前系统状态 vim /etc/hosts,host信息如下: 准备工作 安装idk 1.7 配...

  • linux hadoop 伪分布式部署

    单机部署 进程没有 伪分布式部署 进程存在+1节点 开发 集群部署 进程存在+n节点 开发/生产 1、...

  • HDFS伪分布部署

    Hadoop的部署有三种: 单机部署:无进程伪分布式部署:进程存在+1个节点,也是我们说的单节点,适合开发集群部署...

  • CentOS Spark单机版伪分布式

    如果机器资源有限,可以使用单机伪分布式本次部署是在centos 7.1上部署的,ip地址是192.168.1.91...

  • Zookeeper 环境搭建

    单机伪分布式

  • win10下hadoop伪分布式搭建

    hadoop的单机模式、伪分布式、完全分布式 1、单机(非分布式)模式 这种模式是在一台单机上运行,没有分布式文件...

  • HBase组件部署-单节点

    注意伪分布式不等同与单机模式! 1.需要安装好jdk ![[Hadoop平台搭建-集群部署-HA#3 jdk的安装...

  • 基于 Docker 安装 Zookeeper

    概述 Zookeeper 部署有三种方式,单机模式、集群模式、伪集群模式,以下采用 Docker 的方式部署 单机...

  • Hadoop2.6.0的安装部署(伪分布式)

    本教程提供了从VMware的安装开始到hadoop的伪分布式安装,再到eclipse的安装配置的所有步骤,适合所有...

网友评论

    本文标题:Hadoop2.6.0 单机、伪分布式部署

    本文链接:https://www.haomeiwen.com/subject/yrnqkttx.html