美文网首页
083-BigData-11HDFS目录结构

083-BigData-11HDFS目录结构

作者: AncientMing | 来源:发表于2019-08-09 19:18 被阅读0次

    上一篇:082-BigData-10HDFS上传与下载机制

    一、DataNode工作机制

    1、NameNode & DataNode工作机制

    image.png

    1)一个数据块在datanode上以文件形式存储在磁盘上,包括两个文件,一个是数据本身,一个是元数据包括数据块的长度,块数据的校验和,以及时间戳。

    2)DataNode启动后向namenode注册,通过后,周期性(1小时)的向namenode上报所有的块信息。

    3)心跳是每3秒一次,心跳返回结果带有namenode给该datanode的命令如复制块数据到另一台机器,或删除某个数据块。如果超过10分钟没有收到某个datanode的心跳,则认为该节点不可用。

    4)集群运行中可以安全加入和退出一些机器

    2、数据完整性

    1)当DataNode读取block的时候,它会计算checksum校验和。

    2)如果计算后的checksum,与block创建时值不一样,说明block已经损坏。

    3)client读取其他DataNode上的block。

    4)datanode在其文件创建后周期验证checksum校验和。

    3、掉线时限参数设置

    datanode进程死亡或者网络故障造成datanode无法与namenode通信,namenode不会立即把该节点判定为死亡,要经过一段时间,这段时间暂称作超时时长。HDFS默认的超时时长为10分钟+30秒。如果定义超时时间为timeout,则超时时长的计算公式为:

    timeout = 2 * dfs.namenode.heartbeat.recheck-interval + 10 * dfs.heartbeat.interval。

    而默认的dfs.namenode.heartbeat.recheck-interval 大小为5分钟,dfs.heartbeat.interval默认为3秒。

    需要注意的是hdfs-site.xml 配置文件中的heartbeat.recheck.interval的单位为毫秒,dfs.heartbeat.interval的单位为秒。

    <property>
        <name>dfs.namenode.heartbeat.recheck-interval</name>
        <value>300000</value>
    </property>
    <property>
        <name> dfs.heartbeat.interval </name>
        <value>3</value>
    </property>
    

    4、DataNode的目录结构

    和namenode不同的是,datanode的存储目录是初始阶段自动创建的,不需要额外格式化。

    1)在/opt/module/hadoop-2.8.4/data/dfs/data/current这个目录下查看版本号

    cat VERSION 
    

    storageID=DS-1b998a1d-71a3-43d5-82dc-c0ff3294921b

    clusterID=CID-1f2bf8d1-5ad2-4202-af1c-6713ab381175

    cTime=0

    datanodeUuid=970b2daf-63b8-4e17-a514-d81741392165

    storageType=DATA_NODE

    layoutVersion=-56

    2)具体解释
    (1)storageID:存储id号
    (2)clusterID集群id,全局唯一
    (3)cTime属性标记了datanode存储系统的创建时间,对于刚刚格式化的存储系统,这个属性为0;但是在文件系统升级之后,该值会更新到新的时间戳。
    (4)datanodeUuid:datanode的唯一识别码
    (5)storageType:存储类型
    (6)layoutVersion是一个负整数。通常只有HDFS增加新特性时才会更新这个版本号。

    3)在/opt/module/hadoop-2.8.4/data/dfs/data/current/BP-97847618-192.168.10.102-1493726072779/current这个目录下查看该数据块的版本号

    cat VERSION 
    
    #Mon May 08 16:30:19 CST 2017
    namespaceID=1933630176
    cTime=0
    blockpoolID=BP-97847618-192.168.10.102-1493726072779
    layoutVersion=-56
    

    4)具体解释

    (1)namespaceID:是datanode首次访问namenode的时候从namenode处获取的storageID对每个datanode来说是唯一的(但对于单个datanode中所有存储目录来说则是相同的),namenode可用这个属性来区分不同datanode。

    (2)cTime属性标记了datanode存储系统的创建时间,对于刚刚格式化的存储系统,这个属性为0;但是在文件系统升级之后,该值会更新到新的时间戳。

    (3)blockpoolID:一个block pool id标识一个block pool,并且是跨集群的全局唯一。当一个新的Namespace被创建的时候(format过程的一部分)会创建并持久化一个唯一ID。在创建过程构建全局唯一的BlockPoolID比人为的配置更可靠一些。NN将BlockPoolID持久化到磁盘中,在后续的启动过程中,会再次load并使用。

    (4)layoutVersion是一个负整数。通常只有HDFS增加新特性时才会更新这个版本号。

    5、Datanode多目录配置

    1)datanode也可以配置成多个目录,每个目录存储的数据不一样。即:数据不是副本。

    2)具体配置如下:

    hdfs-site.xml

    <property>
            <name>dfs.datanode.data.dir</name>
          <value>file:///${hadoop.tmp.dir}/dfs/data1,file:///${hadoop.tmp.dir}/dfs/data2</value>
    </property>
    

    二、HDFS其他功能

    1、集群间数据拷贝

    1)scp实现两个远程主机之间的文件复制

    scp -r hello.txt root@bigdata111:/user/AncientMing/hello.txt // 推 push

    scp -r root@bigdata112:/user/AncientMing/hello.txt hello.txt // 拉 pull

    scp -r root@bigdata112:/opt/module/hadoop-2.8.4/LICENSE.txt root@bigdata113:/opt/module/hadoop-2.8.4/LICENSE.txt

    //是通过本地主机中转实现两个远程主机的文件复制;如果在两个远程主机之间ssh没有配置的情况下可以使用该方式。

    2)采用discp命令实现两个hadoop集群之间的递归数据复制(注:不用设置其他,直接写IP)

    bin/hadoop distcp hdfs://192.168.1.51:9000/LICENSE.txt hdfs://192.168.1.111:9000/HAHA

    2、Hadoop(不适合存储小文件)存档

    1)理论概述

    每个文件均按块存储,每个块的元数据存储在namenode的内存中,因此hadoop存储小文件会非常低效。因为大量的小文件会耗尽namenode中的大部分内存。但注意,存储小文件所需要的磁盘容量和存储这些文件原始内容所需要的磁盘空间相比也不会增多。例如,一个1MB的文件以大小为128MB的块存储,使用的是1MB的磁盘空间,而不是128MB。

    Hadoop存档文件或HAR文件,是一个更高效的文件存档工具,它将文件存入HDFS块,在减少namenode内存使用的同时,允许对文件进行透明的访问。具体说来,Hadoop存档文件可以用作MapReduce的输入。

    https://www.cnblogs.com/staryea/p/8603112.html

    2)案例实操
    (1)需要启动yarn进程

    start-yarn.sh

    (2)归档文件

    归档成一个叫做xxx.har的文件夹,该文件夹下有相应的数据文件。Xx.har目录是一个整体,该目录看成是一个归档文件即可。

    image.png

    用法:hadoop archive -archiveName 归档名称 -p 父目录 [-r <复制因子>] 原路径(可以多个) 目的路径

    bin/ hadoop archive -archiveName foo.har -p /Andy -r 3 a b c /

    (3)查看归档

    hadoop fs -lsr /user/my/myhar.har

    hadoop fs -lsr har:///myhar.har

    image.png

    (4)解归档文件

    取消存档:hadoop fs -cp har:/// user/my/myhar.har /* /user/AncientMing

    并行解压缩:hadoop distcp har:/foo.har /001

    3、快照管理

    快照相当于对目录做一个备份。并不会立即复制所有文件,而是指向同一个文件。当写入发生时,才会产生新文件。

    1)基本语法
    (1)hdfs dfsadmin -allowSnapshot 路径 (功能描述:开启指定目录的快照功能)
    (2)hdfs dfsadmin -disallowSnapshot 路径 (功能描述:禁用指定目录的快照功能,默认是禁用)
    (3)hdfs dfs -createSnapshot 路径 (功能描述:对目录创建快照)
    (4)hdfs dfs -createSnapshot 路径 名称 (功能描述:指定名称创建快照)
    (5)hdfs dfs -renameSnapshot 路径 旧名称 新名称 (功能描述:重命名快照)
    (6)hdfs lsSnapshottableDir (功能描述:列出当前用户所有已快照目录)
    (7)hdfs snapshotDiff 路径1 路径2 (功能描述:比较两个快照目录的不同之处)
    (8)hdfs dfs -deleteSnapshot <path> <snapshotName> (功能描述:删除快照)

    2)案例实操
    (1)开启/禁用指定目录的快照功能
    hdfs dfsadmin -allowSnapshot /user/AncientMing/data
    hdfs dfsadmin -disallowSnapshot /user/AncientMing/data
    (2)对目录创建快照
    hdfs dfs -createSnapshot /user/AncientMing/data // 对目录创建快照
    用相同数据块
    hdfs dfs -lsr /user/AncientMing/data/.snapshot/
    (3)指定名称创建快照
    hdfs dfs -createSnapshot /user/AncientMing/data miao170508
    重命名快照(注:快照是只读的,无法修改名)
    快照的目录 老快照的名字 新快照的名字
    hdfs dfs -renameSnapshot /Andy/ andy bndy
    注:路径只是你创建得名字/Andy,不要带后边得/Andy/.snapshot/,不然会出现
    renameSnapshot: Modification on a read-only snapshot is disallowed
    (5)列出当前用户所有可快照目录
    hdfs lsSnapshottableDir
    (6)比较两个快照目录的不同之处
    快照的名字 之前的快照名字 新快照的名字
    hdfs snapshotDiff /user/AncientMing/data/ plus plus1
    (7)恢复快照
    自定义创建一个快照名:hdfs dfs -createSnapshot /HAHA1 miaomiao
    展示原文件包含内容:Hadoop fs -ls /HAHA1
    里面有五个文件、删除其中1~2个
    /HAHA1/.snapshot/miaomiao1
    回复快照:hdfs dfs -cp /HAHA1/.snapshot/miaomiao1 /miaomiao
    (8)删除快照
    hdfs dfs -deleteSnapshot /001名字

    4、回收站

    1)默认回收站

    默认值fs.trash.interval=0,0表示禁用回收站,可以设置删除文件的存活时间。

    默认值fs.trash.checkpoint.interval=0,检查回收站的间隔时间。

    要求fs.trash.checkpoint.interval<=fs.trash.interval。

    image.png

    2)启用回收站

    修改core-site.xml,配置垃圾回收时间为1分钟。

    <property>
        <name>fs.trash.interval</name>
        <value>1</value>
    </property>
    

    3)查看回收站

    回收站在集群中的;路径:/user/AncientMing/.Trash/….

    4)修改访问垃圾回收站用户名称

    进入垃圾回收站用户名称,默认是dr.who,修改为AncientMing用户

    [core-site.xml]

    <property>
      <name>hadoop.http.staticuser.user</name>
      <value>AncientMing</value>
    </property>
    

    5)通过程序删除的文件不会经过回收站,需要调用moveToTrash()才进入回收站

    Trash trash = New Trash(conf);

    trash.moveToTrash(path);

    6)恢复回收站数据

    hadoop fs -mv /user/AncientMing/.Trash/Current/user/AncientMing/input /user/AncientMing/input

    7)清空回收站

    hdfs dfs -expunge

    三、Hdfs运行状态下扩展集群

    已启动hdfs有bigdata111,bigdata112,bigdata113

    向集群添加一个节点,bigdata114

    1、在bigdata114机器安装jdk并且配置环境变量。

    2、安装hadoop并且配置环境变量。

    3、修改bigdata1114机器的hadoop的配置文件,slaves里面写上所有的datanode节点主机名
    bigdata111
    bigdata112
    bigdata113
    bigdata114(新添加的)

    4、在bigdata111,bigdata112,bigdata113的三个节点的hadoop的slaves的配置文件里面都添加bigdata114

    5、ssh免密必须配置

    6、然后bigdata114单独启动上的datanode进程:hadoop-daemon.sh start datanode

    7、然后在web页面查看datanode是否添加进去,如果不显示运行:

    hdfs dfsadmin -refreshNodes 用于刷新hdfs的nodes节点

    8、然后单独启动bigdata114上的nodemanager进程:yarn-daemon.sh start nodemanager

    9、然后在web页面查看nodemanager是否添加进去,如果不显示运行:

    yarn rmadmin -refreshNodes 用于刷新hdfs的nodes节点

    四、Hadoop HDFS 数据自动平衡脚本使用方法

    在Hadoop中,包含一个start-balancer.sh脚本,通过运行这个工具,启动HDFS数据均衡服务。该工具可以做到热插拔,即无须重启计算机和 Hadoop 服务。Hadoop/bin目录下的start−balancer.sh脚本就是该任务的启动脚本。启动命令为:

    bin/start-balancer.sh –threshold

    影响Balancer的几个参数:

    -threshold

    默认设置:10,参数取值范围:0-100
    参数含义:判断集群是否平衡的阈值。理论上,该参数设置的越小,整个集群就越平衡
    dfs.balance.bandwidthPerSec
    默认设置:1048576(1M/S)
    参数含义:Balancer运行时允许占用的带宽
    示例如下:

    #启动数据均衡,默认阈值为 10%
    $Hadoop_home/bin/start-balancer.sh
    
    #启动数据均衡,阈值 5%
    bin/start-balancer.sh –threshold 5
    
    #停止数据均衡
    $Hadoop_home/bin/stop-balancer.sh
    

    在hdfs-site.xml文件中可以设置数据均衡占用的网络带宽限制

    <property>
        <name>dfs.balance.bandwidthPerSec</name>
        <value>1048576</value>
        <description> Specifies the maximum bandwidth that each datanode can utilize for the balancing purpose in term of the number of bytes per second. </description>
        </property>
    

    下一篇:084-BigData-12MapReduce入门

    相关文章

      网友评论

          本文标题:083-BigData-11HDFS目录结构

          本文链接:https://www.haomeiwen.com/subject/geuhjctx.html