美文网首页
Hadoop HDFS核心概念,Hadoop底层的五行元素,你知

Hadoop HDFS核心概念,Hadoop底层的五行元素,你知

作者: javap | 来源:发表于2020-01-29 19:04 被阅读0次

知识要点:

基本概念

Hadoop底层五行元素
Hadoop四种机制
Hadoop两大功能

基本概念

存储目录
①name:存储元数据
②data:存储数据
③dfs:SecondaryNameNode执行Checkpoint合并(SNN合并)的存储目录
④nm-local-dir:缓存目录
元数据
①抽象目录树
②数据和块的映射
③数据块的存储节点

Hadoop底层五行元素

NameNode
Namenode 维护着文件系统树(filesystem tree)以及文件树中所有的文件和文件夹的元数据(metadata)。管理这些信息的文件有两个,分别是 镜像文件(Namespace image)和操作日志文件(edit log)。
在HDFS中主要是通过两个数据结构FsImage和EditsLog来实现Metadata的更新。在启动HDFS时,会从FSImage文件中读取当前HDFS文件的Metadata,之后对HDFS的操作都会记录到EditsLog文件中。
镜像文件
FSImage
保存了最新的元数据检查点,包含了整个HDFS文件系统的所有目录和文件的信息。

  • 对于文件来说包括了数据块描述信息、修改时间、访问时间等;
  • 对于目录来说包括修改时间、访问权限控制信息(目录所属用户,所在组)等。
    简单的说,FSImage存储的信息就相当于整个HDFS在某一时刻的快照,就是这个时刻HDFS上所有的文件块和目录,分别的状态,位于哪些个datanode,各自的权限,各自的副本个数等。
    文件格式
    镜像文件(元数据文件):fsimage_oooooooo(如:fsimage_0000000000000000006)
-rw-rw-r-- 1 hadoop hadoop     477 1月  21 13:59 fsimage_0000000000000000023
-rw-rw-r-- 1 hadoop hadoop      62 1月  21 13:59 fsimage_0000000000000000023.md5
-rw-rw-r-- 1 hadoop hadoop     477 1月  21 14:44 fsimage_0000000000000000025
-rw-rw-r-- 1 hadoop hadoop      62 1月  21 14:44 fsimage_0000000000000000025.md5

查看FSImage内容

hdfs oev -i /home/hadoop/hdfs/name/current/fsimage_0000000000000000000 -o /home/hadoop/editslog.xml -p XML

日志文件
①EditLogs
对HDFS进行的各种更新操作、写操作都会被记录到editlog中。日志文件保护两种,一种是历史日志文件,另外一种是正在操作的日志文件。
②文件格式

  • 正在操作的日志文件:edits_inprogress_xxxxxxxx(如:edits_inprogress_0000000000000000015)
  • 镜像文件(元数据文件):fsimage_oooooooo(如:fsimage_0000000000000000006)
    历史日志
-rw-rw-r-- 1 hadoop hadoop     314 1月  19 15:02 edits_0000000000000000001-0000000000000000006
-rw-rw-r-- 1 hadoop hadoop     567 1月  19 16:02 edits_0000000000000000007-0000000000000000014
-rw-rw-r-- 1 hadoop hadoop      42 1月  19 17:02 edits_0000000000000000015-0000000000000000016
-rw-rw-r-- 1 hadoop hadoop     651 1月  19 18:02 edits_0000000000000000017-0000000000000000025
-rw-rw-r-- 1 hadoop hadoop      42 1月  19 19:02 edits_0000000000000000026-0000000000000000027
-rw-rw-r-- 1 hadoop hadoop      42 1月  19 20:02 edits_0000000000000000028-0000000000000000029

正在操作的日志

-rw-rw-r-- 1 hadoop hadoop 1048576 1月  21 14:44 edits_inprogress_0000000000000000026

查看EditsLog内容

hdfs oev -i /home/hadoop/hdfs/name/current/edits_0000000000000000001-0000000000000000006 -o /home/hadoop/editslogs.xml -p XML

启动阶段合并
启动阶段合并的作用就是:在启动时保证FSImage元数据是最新的。
EditsLog存储的是日志信息,在Namenode启动后所有对目录结构的增加,删除,修改等操作都会记录到EditsLog文件中,并不会同步的记录在FSImage中。
而当Namenode结点关闭的时候,也不会将FSImage与EditsLog文件进行合并,这个合并的过程实际上是发生在Namenode启动的过程中。

  • 将fsimage文件加载到内存
  • 将edits文件也加载到内存
  • 在内存将fsimage和edits文件进行合并
  • 将合并后的文件写入fsimage
  • 清空原先edits中的数据,使用一个空的edits文件进行正常操作

    SecondaryNameNode
    问题:如果NameNode在启动后发生的改变过多,势必会导致EditsLog文件变得非常大,那么在下一次NameNode启动的过程中,读取了FSImage文件后,会用这个无比巨大的EditsLog文件进行“启动阶段合并”,从而导致Hadoop启动时间过长。
    SecondaryNameNode的作用就是:根据规则被唤醒,然后进行FSImage文件与EditsLog文件的合并,防止editslog文件过大,从而导致NameNode启动时间过长。
    为什么要合并?
    防止editslog文件过大,导致NameNode启动时间过长。
    FSImage是一个元数据文件,并且保存着Hadoop的整个目录树结构。随着时间的推移,元数据也会越来越庞大,FSImage文件也会越来越大,而FSImage的目录树也越来越复杂,如果直接对FSImage进行修改,势必会影响到效率。所以先把操作记录到EditsLog日志文件中,而后在checkpoint点(合并了多长时间或者事务数达到多少条)上进行合并。
    Checkpoint合并
  • 将hdfs更新记录写入一个新的文件——edits.new。
  • 将fsimage和editlog通过http协议发送至secondary namenode。
  • 将fsimage与editlog合并,生成一个新的文件 —— fsimage.ckpt。因为比较耗时,所以在secondary namenode中进行。
  • 将生成的fsimage.ckpt通过http协议发送至namenode。
  • 重命名fsimage.ckpt为fsimage,edits.new为edits。
  • 等待下一次checkpoint触发SecondaryNameNode进行工作,一直这样循环操作。
    合并参数
    checkpoint合并触发的条件可以在core-site.xml文件中进行配置
fs.checkpoint.period       检查点间隔时间          单位秒。默认值3600,当距离上次检查点执行超过该时间后启动检查点
fs.checkpoint.size         检查点文件大小          单位字节。默认值67108864,当edits文件超过该大小后,启动检查点

DataNode
DataNode在HDFS中真正存储数据。相关的数据会有两个文件,如:

-rw-rw-r-- 1 hadoop hadoop    157136 2020/01/29 16:06 blk_1073742069
-rw-rw-r-- 1 hadoop hadoop      1235 2020/01/29 16:06 blk_1073742069_1245.meta

blk_1073742069 中存储的是具体的数据。
blk_1073742069_1245.meta 是一个CRC校验文件,其中保存数据块的校验信息。

Hadoop四种机制

  • 机架感知
  • 负载均衡
  • 心跳机制
  • 安全机制

Hadoop两大功能

数据块(Block)
128m 1m
文件大小===》split(128m)===》Map Task 10TB 1m 多少Task 128m 80000
寻道时间
写入

  • 先和NameNode沟通,在元数据里面创建一个新文件,不关联块。
  • 检查文件:是否存在、操作权限。创建一个块。
  • FSDataOutputStream,和client建立连接开始写入文件。
  • 读取

HDFS常用命令

文件命令
列出HDFS下的文件

$ hdfs dfs -ls

# 显示HDFS中指定的文件的读写权限、大小、创建时间、路径等信息
$ hdfs dfs -ls -h payment.txt

# 查看目录中的文件
$ hdfs dfs -ls /home

上传文件
将hadoop目录下的payment文件上传到HDFS:

$ hdfs dfs -put payment.txt /home

文件被复制到本地系统中
将HDFS中的in文件复制到本地系统并命名为getin:

$ hdfs dfs -get in getin

删除文档
删除HDFS下名为home的目录:

$ hdfs dfs -rm -r /home

查看文件
查看HDFS下payment.txt文件中的内容:

$ hdfs dfs -cat /home/payment.txt

**建立目录 **

$ hdfs dfs -mkdir /user/hadoop/examples

复制文件

$ hdfs dfs -copyFromLocal 源路径 路径

管理命令
缓存
当我们需要频繁访问HDFS中的热点公共资源文件和短期临时的热点数据文件时,可以使用Hadoop缓存。比如:需要频繁访问的报表数据、公共资源(如:jar依赖、计算包等)。
①建立缓存池:

# 建立缓存池
$ hdfs cacheadmin -addPool cache

# 查看缓存是状态
$ hdfs cacheadmin -listPools -stats cache

②把文件或者目录添加到缓存池中

# 把文件添加到缓存池中
$ hdfs cacheadmin -addDirective -path /home/payment.txt -pool cache

# 查看缓存
$ hdfs cacheadmin -listDirectives

存储策略
①存储类型

  • DISK:普通磁盘
  • SSD:SSD盘
  • RAM_DISK:内存盘
  • ARCHIVE:归档/压缩,不是实际的磁盘类型,而是数据被压缩存储。
    ②存储策略
  • HOT:存储和计算都热。如果是热块,那么复制的目标也是DISK(普通的磁盘)。
  • COLD:用于有限计算的存储。 数据不再使用,或者需要归档的数据被移动到冷存储。如果数据块是冷的,则复制使用ARCHIVE.
  • WARM:半冷半热。warm块的复制内容,部分放置在DISK,其它的在ARCHIVE.
  • All_SSD: 所有数据存储在SSD.
  • One_SSD: 一个复制在SSD,其它的在DISK.
  • LAZY_PERSIST:只针对只有一个复制的数据块,它们被放在RAM_DISK,之后会被写入DISK。
# 设置一个文件为HOT存储策略
$ hdfs storagepolicies -setStoragePolicy -path /home/twilight.txt -policy HOT

# 查看某个文件的存储策略
$ hdfs storagepolicies -getStoragePolicy -path /home/twilight.txt

WebHDFS和HttpFS

WebHDFS
HortonWorks,捐赠给Apache Hadoop。建议使用这个。
http://ip:50070/webhdfs/v1/<path>?op=OPERATIONS_KEY

curl -i -L "http://192.168.56.105:50070/webhdfs/v1/home/payment.txt?op=OPEN"

HttpFS
Cloudera,捐赠给Apache Hadoop
http://ip:14000/webhdfs/v1/<path>?op=OPERATIONS_KEY

相关文章

网友评论

      本文标题:Hadoop HDFS核心概念,Hadoop底层的五行元素,你知

      本文链接:https://www.haomeiwen.com/subject/sicbthtx.html