美文网首页
03. HBase Region解析

03. HBase Region解析

作者: 牦牛sheriff | 来源:发表于2018-09-05 02:37 被阅读0次

    什么是Region ?

    image.png

    Region是HBase数据管理的基本单位。数据的move,数据的balance,数据的split,都是按照region来进行操作的。
    region中存储这用户的真实数据,而为了管理这些数据,HBase使用了RegionSever来管理region。
    一个表中可以包含一个或多个Region。
    每个Region只能通过一个RS(RegionServer)提供服务,一个RS可以同时对多个Region提供服务,来自不同RS上的Region组合成表格的整体逻辑视图。
    regionServer其实是hbase的服务,部署在一台物理服务器上,region有一点像关系型数据的分区,数据存放在region中,当然region下面还有很多结构,确切来说数据存放在memstore和hfile中。我们访问hbase的时候,先去hbase系统表查找定位这条记录属于哪个region,然后定位到这个region属于哪个服务器,然后就到哪个服务器里面查找对应region中的数据

    每个region有三个主要要素:

    • 它所属于哪张表
    • 它所包含的的第一行(第一个region没有首行)
    • 它所包含的最后一行(末一个region没有末行)

    当表初写数据时,此时表只有一个region ,当随着数据的增多,region开始变大,等到它达到限定的阀值大小时,变化把region分裂为两个大小基本相同的region,而这个阀值就是storefile的设定大小(参数:hbase.hregion.max.filesize新版本默认10G) ,在第一次分裂region之前,所有加载的数据都放在原始区域的那台服务器上,随着表的变大region的个数也会相应的增加,而region是Hbase集群分布数据的最小单位。(但region也是由block组成,具体这个block和hdfs block什么样的关系后面再说,region是属于单一的regionserver,除非这个regionserver宕机,或者其它方式挂掉,再或者执行balance时,才可能会将这部分region的信息转移到其它机器上。)
    这也就是为什么region比较少的时候,导致region分配不均,总是分派到少数的节点上,读写并发效果不显著,这就是hbase读写效率比较低的原因。

    Region 的结构?

    image.png
    1. 层级结构
    • Table (HBase 表)
    • Region(表的Regions)
      • Store(Region中以列族为单位的单元)
        • MemStore (用于写缓存)
          • StoreFile (StoreFiles for each Store for each Region for the table)
            • Block (读写的最小单元)
    1. 重要成员

    2.1 Region

    Region是HBase数据存储和管理的基本单位

    2.1.1 Region的数量设计

    设计的本意是每个Server运行小数量(2-200)个大容量(5-20Gb)的Region,理由如下:

    • 每个MemStore需要2MB的堆内存,2MB是配置的,假如有1000拥有两个列族的Region,那么就需要3.9GB的堆内存,还是没有存储任何数据的情况下
    • HMaster要花大量的时间来分配和移动Region
    • 过多Region会增加ZooKeeper的负担
    • 每个Region会对应一个MapReduce任务,过多Region会产生太多任务

    2.1.2 Region的分配

    2.1.2.1 启动时的分配步骤

    1. Master启动时调用 AssignmentManager。
    2. AssignmentManager 查看hbase:meta中已经分配好的Region
    3. 如果Regiond的分配依然有效的话 (如果RegionServer 仍然在线的话) 维持当前分配
    4. 如果分配失效,LoadBalancerFactory 会被调用来分配region. 负载均衡器(HBase 1.0默认使用StochasticLoadBalancer ) 分配任务到Region Server中
    5. 如果需要的话,Region Server分配信息会更新到hbase:meta中。RegionServer启动时调用启动代码来启动region。

    2.1.2.2 RegionServer失效时的分配步骤

    1. Region Server挂掉后它上面的regions变得不可用。
    2. Master检测到Region Server挂掉了。
    3. 失效Region Server上的region分配会被认为无效并采用跟启动时同样顺序的步骤分配region
    4. 正在进行的查询操作会重新执行,不会丢失
    5. 切换动作要在以下时间内完成: ZooKeeper session timeout + split time + assignment/replay time

    2.1.3 Region的位置选择

    Region的位置选择通过HDFS的复制机制完成
    1)步骤:

    1. 第一个副本写在本地节点
    2. 第二副本写到另一个机上任意节点
    3. 第三个副本写到跟第二副本相同机架不同节点的其他节点
    4. 后面的副本将写到集群中的任意节点中。
    image.png

    2)要点:

    • 选址是在flush或者compaction之后执行的
    • 当RegionServer失效后,其上的Region被转移到其他的RegionServer,那么此时被转移的Region不具备数据本地性,直到下一次compaction执行之后才重新具备数据本地性

    2.1.4 Region的切分

    • 当Region的大小达到指定的阀值时,RegionServer会执行Region的切分
    • 该操作由RegionServer单独执行,Master不参与
    • 分裂执行完毕后,会将子Region添加到hbase:meta并且汇报给Master
    • 可以自定义切分策略,可以在hbase-site.xml设置

    <property>
    <name>hbase.regionserver.region.split.policy</name>
    <value>org.apache.hadoop.hbase.regionserver.IncreasingToUpperBoundRegionSplitPolicy</value></property>

    • 支持手动执行切分
    • 可以指定切分点
    image.png

    2.1.5 Region的合并

    2.1.5.1 意义

    • 当存在大量没有数据的region时,执行region的合并来避免region过多
    • 之所以会存在大量没有数据的region是为了避免region到达阀值引起分裂的开销,创建表格时先进行预分区。

    2.1.5.2 步骤

    1. 客户端发送指令给Master
    2. Master收到指令后将要合并的region移动到指定的RegionServer
    3. Master发送Merge请求给指定的RegionServer执行合并操作
    4. 最后将被合并的regions从hbase:meta中删除并添加合并后的region

    2.2 Store

    • 以列族为单元,即对应表中每个region中一个列族
    • 包含一个MemStore和0到多个StoreFile(HFile)

    2.2.1 MemStore

    • 将修改信息缓存在内存当中
    • 信息格式为Cell/KeyValue
    • 当flush触发时,MemStore会生成快照保存起来,新的MemStore会继续接收修改信息,指导flush完成之后快照会被删除
    • 当一个MemStore flush发生时,属于同一个region的memStore会一起flush

    2.2.2.1 MemStore Flush的触发情况

    • MemStore的大小达到单个MemStore阀值
    • RegionServer中所有MemStore的使用率超过RS中MemStore上限值,该Server上所有MemStore会执行flush直到完成或者小于RS中MemStore安全值
    • RegionServer中WAL超过WAL阀值
      单个MemStore阀值:hbase.hregion.memstore.flush.size RS中MemStore上限值:hbase.regionserver.global.memstore.upperLimit
      RS中MemStore安全值:hbase.regionserver.global.memstore.lowerLimit WAL阀值:hbase.regionserver.max.logs

    2.3 StoreFile/HFile

    2.3.1 格式

    2.3.1.1 概念:

    • Data Block Size:数据块大小。默认为64KB。因为查询key是按照顺序查询的,所以需要选择合适的Size来避免一个Block包含过多Key/Value对。

    • Maximum Key Length:最大key长度。10-100字节是比较合适的大小,key的形式:rowkey+column family:qualifier+timestamp

    • Maximum File Size:最大File大小。Trailer、File-Info和Data-Index都会在读取和写入时存到内存中,所以最好保证File的大小在合理的范围,避免占用过多内存。

    • Compression Algorithm:压缩算法。

    • 好处:

      • 减少磁盘I/O
      • 提高传输效率和减少磁盘空间
      • 减少读取请求的返回量
    • 支持的压缩库

      • GZ
      • LZO

    2.3.1.2 HFile 结构

    结构图如下:


    image.png

    HFile结构图


    image

    Trailer结构

    • Data Block:存储键值对的长度和值
    • Meta Block:用户定义元数据
    • File Info:关于HFile的元数据
    • Data Index:Data Block的索引,也就是每个Block的第一个Key的偏移量
    • Trailer:固定的源数据,用于存储以上每个部分的偏移量,读取HFile时首先要读取Trailer。

    2.3.2 KeyValue

    image

    KeyValue以字节数组的形式存储,包含以下部分:

    • keylength
    • valuelength
    • key
    • value

    Key的格式如下:

    • rowlength
    • row (也就是the rowkey)
    • columnfamilylength
    • columnfamily
    • columnqualifier
    • timestamp
    • keytype (例如 Put, Delete, DeleteColumn, DeleteFamily)

    2.4 Scan 步骤

    1. 当客户端提交scan请求时,HBase会创建为每个Region创建RegionScanner 实例来处理scan请求
    • RegionScanner 包含一组StoreScanner实例,每个列族对应一个StoreScanner实例
    • 每个StoreScanner实例包含一组StoreFileScanner实例, 每个toreFileScanner实例对应每个列族的HFile, 同时包含一组对应MemStore的KeyValueScanner。
    • The two lists are merged into one, which is sorted in ascending order with the scan object for the MemStore at the end of the list.
    • 当StoreFileScanner实例被构造, 会生成MultiVersionConcurrencyControl 读取点, 就是当前的memstoreTS, 用来过滤掉

    2.5 Compaction

    2.5.1 Minor Compaction(次压缩)

    HBase会自动挑选小的临近的HFiles将它们重新写到一些大的HFiles中。这个过程称为次压缩。次压缩通过将更小的files写到一些大的flies进行合并操作来实现减少file的数量。

    image

    2.5.2 Major Compaction(主压缩)

    • 合并一个Region中每一个列族的所有HFile写到一个HFile中
    • 会删除掉那些标记删除和过期的cells。提高了读取性能
    • 将所有数据进行了重写,产生大量的I/O开销或者网络开销,称为写放大
    • 自动执行,通常安排在周末或者晚上
    image

    2.6 Region 负载均衡

    当region分裂之后,RS之间的region数量差距变大时,HMaster便会执行负载均衡来调整部分region的位置,使得每个RS的region数量保持在合理范围之内,负载均衡会引起region的重新定位,使得涉及的region不具备数据本地性,即HFile和region不在同一个DataNode。这种情况会在major compaction 之后得到解决。

    image

    相关文章

      网友评论

          本文标题:03. HBase Region解析

          本文链接:https://www.haomeiwen.com/subject/ywlowftx.html