美文网首页
hdfs搭建

hdfs搭建

作者: shaun_x | 来源:发表于2019-04-15 11:37 被阅读0次

单机

添加用户
~$ addUser hadoop
JAVA
export $JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64
# 或者在hadoop配置文件hadoop/etc/hadoop/hadoop-env.sh中配置

下载hadoop稳定版2.9.2

~$ wget http://mirrors.hust.edu.cn/apache/hadoop/common/hadoop-2.9.2/hadoop-2.9.2.tar.gz
~$ tar -xzf hadoop-2.9.2.tar.gz
~$ mv hadoop-2.9.2 /usr/local/hadoop
~$ sudo chown hadoop.hadoop hadoop -R

测试

./bin/hadoop

输出正常则单机成功

hdfs集群

配置

hosts

__内网IP__ __master_hostname__
__内网IP__ __slave_hostname__

配置各服务器间的ssh密钥访问

core-site.sh
<configuration>
    <!-- 指定HADOOP所使用的文件系统schema(URI),HDFS(NameNode)的地址 -->
    <property>
         <name>fs.default.name</name>
         <value>hdfs://__hostanme__:9100</value>
    </property>
    <!-- 指定hadoop运行时产生文件的存储目录 -->
    <property>  
         <name>hadoop.tmp.dir</name>  
         <value>/var/services/hadoop/tmp</value>  
         <description>A base for other temporary directories.</description> 
    </property>  
</configuration>

hadoop-env.sh

export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64

hdfs-site.sh

<configuration>
    <!-- 指定namenode的http通信地址 -->
    <property>
        <name>dfs.namenode.http-address</name>
        <value>__namenode_hostname__:51070</value>
    </property>
    <property>
        <name>dfs.namenode.secondary.http-address</name>
        <value>__secondary_node_hostname__:51090</value>
    </property>
    <!-- 指定HDFS副本的数量 -->
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    <!-- 如果是通过公网IP访问内网集群 -->
    <property>
        <name>dfs.client.use.datanode.hostname</name>
        <value>true</value>
        <description>only cofig in clients</description>
    </property>
</configuration>

slaves

__slave_hostname__

masters

__secondary_node_hostname__

环境变量

export HADOOP_HOME=/usr/local/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

格式化集群

hadoop namenode -format

启动/停止集群

~$ sudo su hadoop
~$ start-dfs.sh
~$ stop-dfs.sh

常用命令

#查看目录文件
hdfs dfs -ls /
#删除目录
hdfs dfs -rm -r /test
SparkConf配置

// 如clinet在外网需要在client端配置已hostname方式访问集群,否则是通过集群配置的内网地址

new SparkConf()
    ...
    .set("dfs.client.use.datanode.hostname","true")
    ...

Client设置Hadoop用户环境变量(否则可能出现permission error)

export HADOOP_USER_NAME=hadoop

spark driver以linux service启动时有可能无法获取到该环境变量,导致权限错误,可以改变hdfs目录对应的owner来实现访问

备注

如果hdfs集群以主机名方式配置,则需要客户端(eg. spark driver)在连接集群前配置所有集群节点对应的hosts,否则单指定namenode节点可能会出现UnresolvedAddressException: null

相关文章

  • 《十小时入门大数据》学习笔记之HDFS

    笔记目录 HDFS概述及设计目标 HDFS架构 HDFS副本机制 HDFS环境搭建 HDFS shell Java...

  • hadoop学习大纲

    Hadoop集群环境搭建 Hadoop集群环境搭建 HDFS 图说HDFS基本原理hadoop的shell命令操作...

  • Hadoop课程大纲

    Hadoop集群环境搭建 Hadoop集群环境搭建 HDFS 图说HDFS基本原理hadoop的shell命令操作...

  • Hadoop课程大纲

    Hadoop集群环境搭建 Hadoop集群环境搭建 HDFS 图说HDFS基本原理hadoop的shell命令操作...

  • Hadoop 课程大纲

    Hadoop集群环境搭建 Hadoop集群环境搭建 HDFS 图说HDFS基本原理hadoop的shell命令操作...

  • hdfs搭建

    单机 添加用户 JAVA 下载hadoop稳定版2.9.2 测试 输出正常则单机成功 hdfs集群 配置 host...

  • hadoop 集群

    标签:Hadoop 搭建分布式集群环境 MapReduce YARN HDFS 分布式环境搭建之环...

  • 搭建大数据平台系列(2)-zookeeper环境搭建

    目前本系列文章有:搭建大数据平台系列(0)-机器准备搭建大数据平台系列(1)-Hadoop环境搭建[hdfs,ya...

  • 搭建大数据平台系列(3)-hbase环境搭建

    目前本系列文章有:搭建大数据平台系列(0)-机器准备搭建大数据平台系列(1)-Hadoop环境搭建[hdfs,ya...

  • HDFS集群搭建

    一、机器准备 假设我们已经准备好了6台,内存100G,硬盘2T容量的机器。 生产中我们最好不要使用全部的磁盘作为d...

网友评论

      本文标题:hdfs搭建

      本文链接:https://www.haomeiwen.com/subject/uctuwqtx.html