HDFS

作者: _duangduang | 来源:发表于2018-02-23 18:19 被阅读0次

    一、HDFS:hadoop分布式文件存储系统。

    优点:

    1. 基于多副本存储,实现高容错

    2. 适合大数据离线批处理,移动计算,不移动数据,将数据位置暴露给计算框架,把计算任务调度到数据储存的相应节点上。(结合yarn mr等再理解)

    3. 存储大量 数据,GB、TB、PB等,构建成本低,安全可靠。

    缺点:

    1. 不适合小文件存储。会造成大量空间用于存储namenode,资源浪费,运行过程中,元数据信息会加载到内存中,如果文件过大,内存会溢出。如果有很多小文件,可以通过离线定时任务将小文件进行合并。

    2. 不支持随机修改,只支持追加。

    3. 不能并发写入,当有一个线程正在写入时,其他的线程会被阻塞。

    二、HDFS架构及核心概念:

    采用master/slave架构进行存储,namenode为主节点,存储元数据(文件切分成哪些block,每个block存储在哪些dataNode节点上),dataNode为从节点,用于存储数据。

    NameNode(NN):Active NameNode只有一个,作用是:维护元数据信息;处理客户端读写请求;管理block副本策略,默认每个block存储3个副本,可修改。

    hdfs Client 与NameNode发出读写请求,NameNode返回dataNode节点信息,Client与DataNode交互读取/写入数据。

    edits:编辑日志,客户端对目录和文件的写操作首先被记到 edits日志中,如创建/删除文件等。

     fsimage:文件系统元数据检查点镜像,保存了文件系统中 所有的目录个文件信息,如:一个文件下有哪些子目录,子文件,文件由哪些块组成等等。

    StandBy NameNode(SNN):NN的热备节点,同步Active NN的 edits日志,fsimage等信息,Active 故障时快速切换为新的Active。

    DataNode:hdfs中的存储节点,有多个,且容易扩展,如果增加的DN设备,利用 balance脚本可重新将数据块分布,使每个节点磁盘利用率达到均衡。

    执行Client的请求;通过心跳向NameNode汇报自己的运行状态和列表信息;在集群启动时 DataNode 向 NameNode 提供存储的 Block块信息?

    Block块:hdfs存储最小单元,默认128M,默认副本数3个,若文件最后一个块小于128,保持实际大小。

    架构图见:hdfs_1、hdfs_2

    三、HDFS高可用:

    基于zk实现高可用,包括

    1 主备namenode元数据共享:基于QJM(journalNode 奇数个)共享存储系统来存储edits日志信息; 过程:

    (1) client发出向 主NN节点 发出读写请求,写本地edits日志,同时写入QJM edits文件

    (2)加载到本地内存,更新目录树(定期checkpoint,镜像文件写入本地fsimage文件)

    (3)备NN节点同步QJM edit信息,更新自己内存中的元数据/目录树(同样定期checkpoint,镜像文件写入本地fsimage文件)

    2 主备Namenode切换

    一个NN对应一个 ZKFC进程(主备切换控制器),ZKFS包含两个组件:HeathMonitor 和 ActiveStandbyElector;

    HeathMonitor 通过RPC远程调用检查NN的健康状况。

    ActiveStandbyElector控制主备切换,1. 集群启动时,主备NN都会向ZK创建一个名称相同的临时节点(锁节点),创建成功的为主,失败的为备,且同时监控临时节点;2. 运行过程中,如果主节点异常,与zk会话消失,临时节点将被删除,备NN监控到后,会尝试创建新的临时节点,创建成功,则变为主;3. HeathMonitor 监测到NN异常,通知zkfc,zkfc调用ActiveStandbyElector 组件进行主备选举,且异常的不再参加选举。

    为防止双主(脑裂),主备切换过程中有一个fencing隔离机制,1. 备份NN先 SSH 到 主NN,调用一个方法将 主 变为 备;2. kill -9 杀掉进程; 3. 调用事先准备好的脚本,关机。

    详见 hdfs_HA

    四、HDFS内部存储机制:

    考虑到可靠性和写入性能(机架间带宽较低),会在当前节点存储一个副本,在另外一个机架上选两个节点,分别放俩副本。

    五、HDFS文件写入流程:

    1. 客户端向nameNode发出写入请求

    2.nameNode进行一系列检查,目录是否已存在,当前用户是否有权限等

    3.nameNode回复一个允许写入的应答

    4.client将文件切分成多个block块(大小使用默认配置,或者自身配置?若自身有配置,会覆盖默认配置)

    5.向nameNode请求上传第一个block块

    6.检查dataNode的一些信息

    7.返回上传的dataNode列表

    8.向dataNode请求建立block传输的管道

    9.以package方式传输文件,例如,若有3个dataNode,先传入datanode1,由datanode1写入磁盘同时传给datanode2,datanode2写入磁盘同时传给datanode3,dn3存储完会发送一个成功的消息给dn2,dn2写入成功并受到dn3的消息后,发送一个成功的消息给dn1,同理由dn1返回成功的消息给client;client完成第一个bolock块的发送后,继续进行第5步,请求上传第二个block块,以此类推。

    10.上传成功后,client向namenode发送 写入成功的消息

    11.namenode 进行commit,写入完成。

    图见 hdfs_write

    六、HDFS文件读取流程:

    1.client向NameNode发送读取请求

    2.nameNode检查目录树、权限等信息,将block块及对应datanode列表信息返回给client,其中,dn会根据与客户端的距离,由近及远排列。

    3.client与最近的datanode连接,获取数据

    4.将获取到的block拼装成完整的文件

    图见 hdfs_read

    七、数据校验:

    写入文件时校验:写入前会计算一个校验和,并跟随block存储到dn中,最后一个dn写入完成时,再计算一个校验和并与之对比,若不同,抛出异常。

    读取时校验:从dn读取block块后,计算一个校验和,并与block存储的校验和进行对比,若不同,通知NameNode DN上block块损坏,Namenode通过心跳通知DN删除损坏的block,并在其他节点增加一个备份,保持block数目一致。

    八、HDFS常用文件操作与管理

    多练习。

    九、增加、删除一个Datenode时应如何操作?

    增加dataNode:从其他dataNode节点拷贝一个hadoop安装包(含配置文件),然后利用脚本单独启动该节点,然后利用 start-balancer.sh -threshold 平衡各个节点的存储。

    删除dataNode:将要删除的dataNode加入NameNode黑名单列表中(hsfd-site.xml中,设置dfs.hosts.excludes,加入要拉黑的主机名/IP ),然后刷新 hdfs dfsadmin -refreshNodes。

    相关文章

      网友评论

          本文标题:HDFS

          本文链接:https://www.haomeiwen.com/subject/duatxftx.html