美文网首页
HDFS基本原理

HDFS基本原理

作者: 流浪山人 | 来源:发表于2019-02-17 23:00 被阅读0次

    Hadoop (HDFS)

    Hadoop Distributed File System,分布式文件系统

    hdfs-architecture.png
    架构中的基本概念
    • block

      • 基本存储单位,一般64M,比数据库中的页要大很多
      • 基本的读写单位,类似于磁盘的页,每次都是读写一个块
      • 每个块都会被复制到多台机器,默认复制3份
      • 配置大的block 减少搜寻时间,一般硬盘传输速率比寻道时间要快,大的块可以减少寻道时间
      • 每个块都需要在NameNode上有对应的记录
      • 对数据块进行读写,减少建立网络的连接成本
      • 一个大文件会被拆分成一个个的块,然后存储于不同的机器。如果一个文件少于Block大小,那么实际占用的空间为其文件的大小
    • NameNode

      • 存储文件的metadata,运行时所有数据都保存到内存,整个HDFS可存储的文件数受限于NameNode的内存大小
      • 一个Block在NameNode中对应一条记录(一般一个block占用150字节),如果是大量的小文件,会消耗大量内存。同时map task的数量是由splits来决定的,所以用MapReduce处理大量的小文件时,就会产生过多的map task,线程管理开销将会增加作业时间。处理大量小文件的速度远远小于处理同等大小的大文件的速度。因此Hadoop建议存储大文件
      • 数据会定时保存到本地磁盘,但不保存block的位置信息,而是由DataNode注册时上报和运行时维护
      • NameNode中与DataNode相关的信息并不保存到NameNode的文件系统中,而是NameNode每次重启后,动态重建
      • NameNode失效则整个HDFS都失效了,所以要保证NameNode的可用性
    • Secondary NameNode

      • 定时与NameNode进行同步,定期合并文件系统镜像和编辑日志,然后把合并后的传给NameNode,替换其镜像,并清空编辑日志,类似于CheckPoint机制
      • NameNode失效后仍需要手工将其设置成主机
    • DataNode

      • 保存具体的block数据
      • 负责数据的读写操作和复制操作
      • DataNode启动时会向NameNode报告当前存储的数据块信息,后续也会定时报告修改信息
      • DataNode之间会进行通信,复制数据块,保证数据的冗余性
        HDFS 可靠性
    • datanode不可靠,datanode定时发送心跳到Namenode,如果一段时间namenode没有datanode的心跳,则认为其失效,这时Namenode就会将该节点的数据从该节点的复制节点中copy到另外的datanode中,来保证datanode的复制数[图片上传中...(hdfs-read.png-b7387-1550415506760-0)]

    • 数据可以毁坏,和datanode失效一样,如果通过检验码检测到数据有问题,同样会复制一份正确的数据到健康的节点

    • Namenode也是有可能损坏的,要注意,namenode损坏后整个HDFS就毁了了,所以要做好Namenode备份工作,比如建立HA,或者把namenode数据写入外部库

    HDFS - 写文件

    hdfs-write.png
    1. 客户端发起将数据写入文件
    2. 数据会先写入本地临时文件,当临时文件达到一个block的大小时,HDFS client通知NameNode,申请写入文件
    3. NameNode在HDFS的文件系统中创建文件,并把blockid和datanode的列表返回给客户端
    4. 客户端收到信息,将临时文件写入DataNodes
      1. 客户端将文件内容写入第一个DataNode,一般以4Kb为单位进行传输
      2. 第一个DataNode接收后,将数据写入本地磁盘,同时也传输给第二个DataNode
      3. 依此类推到最后一个DataNode,数据在DataNode之间是通过pipeline的方式进行复制的
      4. 后面的DataNode接收完数据后,都会发送一个确认给前一个DataNode,最终第一个DataNode返回确认给客户端
      5. 当客户端接收到整个block的确认后,会向NameNode发送一个最终的确认信息
      6. 如果写入某个DataNode失败,数据会继续写入其他的DataNode。然后NameNode会找另外一个好的DataNode继续复制,以保证冗余性
      7. 每个block都会有一个校验码,并存放到独立的文件中,以便读的时候来验证其完整性
    5. 文件写完后,客户端关闭.NameNode提交文件,这时文件才可见.

    HDFS-读文件

    hdfs-read.png
    1. client向Namenode发送数据请求
    2. NameNode返回记录的文件的block和block所在的所有的datanode,包含复制节点
    3. client直接从DataNode中读取数据,如果datanode读取失败则从复制节点中读取

    HDFS 命令

    • fsck :检查文件的完整性
    • start-balancer.sh 重新平衡HDFS
    • hdfs dfs -copyFromLocal 从本地磁盘复制文件到HDFS
    • 未完待续

    相关文章

      网友评论

          本文标题:HDFS基本原理

          本文链接:https://www.haomeiwen.com/subject/frzneqtx.html