赞
踩
在HBase中,会从行键方向上对表来进行切分,切分出来的每一个结构称之为是一个HRegion
切分之后,每一个HRegion会交给某一个HRegionServer来进行管理。HRegionServer是HBase的从节点,每一个HRegionServer可以管理多个HRegion
如果新建了一个表,那么这个表中只包含1个HRegion
在HBase中,因为行键是有序(字典序)的,所以切分出来的每一个HRegion之间的数据是不交叉的,因此HBase可以将接收到的不同的请求分发到不同的HRegionServer来进行处理,从而能够有效的避免请求集中到一个节点上
随着运行时间的推移,每一个HRegion中管理的数据都会越来越多,当HRegion管理的数据达到指定大小的时候,会进行分裂,分裂为两个HRegion
刚分裂完成之后,两个HRegion还暂时处于同一个HRegionServer上。但是HBase为了节点之间的负载均衡,可能会将其中一个HRegion转移给其他的HRegionServer来进行管理。注意:此时不会发生大量的数据迁移!HBase的数据是存储在HDFS上的,HRegion只是HBase提供的一个用于管理数据的结构!
每一个HRegion中,会包含至少1个HStore,可以包含多个HStore。HStore的数量是由列族的数量来决定 - 每一个列队都对应了一个HStore
每一个HStore中会包含1个memStore以及0到多个StoreFile/HFile
在HBase2.x中,支持7中分裂策略:ConstantSizeRegionSplitPolicy
,IncreasingToUpperBoundRegionSplitPolicy
,KeyPrefixRegionSplitPolicy
,DelimitedKeyPrefixRegionSplitPolicy
,SteppingSplitPolicy
,BusyRegionSplitPolicy
,DisabledRegionSplitPolicy
ConstantSizeRegionSplitPolicy
:固定大小分裂,默认情况下,这个策略下,当HRegion的大小达到10G的时候,会均分为两个HRegion。可以通过属性hbase.hregion.max.filesize
来调节,单位是字节,默认值是10737418240
IncreasingToUpperBoundRegionSplitPolicy
:HBase1.2及之前版本默认采用的就是这个策略。这个策略的特点:前几次分裂不是固定的数据,而是需要通过计算来获取
如果HRegion的数量超过了100,那么就按照hbase.hregion.max.filesize
(默认值是10G)大小来分裂
如果HRegion的数量在1-100之间,那么按照min(hbase.hregion.max.filesize, regionCount^3 * initialSize)
来计算,其中regionCount表示HRegion的个数,initialSize是HRegion的大小,initialSize的默认值是2 * hbase.hregion.memstreo.flush.size
(默认值是134217728B
)
initialSize的值可以通过属性hbase.increasing.policy.initial.size
来指定,单位是字节
KeyPrefixRegionSplitPolicy
:IncreasingToUpperBoundRegionSplitPolicy
的子类,在IncreasingToUpperBoundRegionSplitPolicy
的基础上,添加了行键的判断,会将行键前缀相同(默认读取行键的前五个字节)的数据拆分到同一个HRegion中。这种分裂策略会导致拆分之后的两个HRegion之间不等大
DelimitedKeyPrefixRegionSplitPolicy
:例如当行键是video_001
、txt_001
,log_003
等,此时希望行键是以_
作为拆分单位,那么此时就需要使用DelimitedKeyPrefixRegionSplitPolicy
SteppingSplitPolicy
:HBase2.X默认使用的就是这个策略
如果这个表中只有1个HRegion,那么按照2 * hbase.hregion.memstreo.flush.size
来进行分裂
如果这个表中HRegion的个数超过1个,那么按照hbase.hregion.max.filesize
来进行分类
BusyRegionSplitPolicy
:这个策略只有在HBase2.x中可以使用,是IncreasingToUpperBoundRegionSplitPolicy
的子类
在IncreasingToUpperBoundRegionSplitPolicy
的基础上,添加了热点策略。热点指的是在一段时间内被频繁访问的数据。如果某一个写数据是热点数据,那么HRegion会将这些数据拆分到同一个HRegion中
判断一个HRegion是否是热点的HRegion,计算方式
判断条件:当前时间-上一次检测时间≥hbase.busy.policy.aggWindow
,这样做的目的是为了控制后续计算的频率
计算请求的被阻塞率:aggBlockedRate = 一段时间内被阻塞的请求数 / 总的请求数量
判断条件:如果aggBlockedRate > hbase.busy.policy.blockedRequests
,且该HRegion的繁忙时间 ≥ hbase.busy.policy.minAge
,那么判定这个HRegion就是一个热点HRegion
hbase.busy.policy.aggWindow
的值默认是300000,单位是毫秒,即5min;hbase.busy.policy.blockedRequests
的值默认是0.2f
;hbase.busy.policy.minAge
的默认值是600000,单位是毫秒,即10min
默认情况下,每隔5min进行一次检测计算,如果该HRegion被频繁访问了10min,且该HRegion的阻塞率超过了20%,那么此时就认为这个HRegion是一个热点HRegion
DisabledRegionSplitPolicy
:禁用分裂策略,禁止HRegion的自动分裂。实际过程中较少使用,除非能够预估数据量
Zookeeper在HBase中充当了注册中心,即HBase集群中每一个节点启动之后,都会在Zookeeper来注册节点
HBase集群启动之后,会在Zookeeper上来注册一个/hbase
节点
当Active HMaster启动之后,会自动的在Zookeeper上注册一个临时节点/hbase/master
当Backup HMaster启动之后,会自动的在Zookeeper上的/hbase/backup-masters
下来注册临时子节点。例如hadoop02上启动Backup HMaster,那么在Zookeeper上注册的节点/hbase/backup-masters/hadoop02,16000,1712459407965
当HRegionServer启动之后,会自动的在Zookeeper上的/hbase/rs
下来注册临时子节点。例如hadoop01上启动HRegionServer,那么在Zookeeper上注册的节点/hbase/rs/hadoop01,16020,1712459960698
HBase是一个典型的主从结构,主节点是HMaster,从节点是HRegionServer。在HBase中,并不限制HMaster的个数,可以在任意一台安装了HBase的节点上来启动HMaster
hbase-daemon.sh start master
因此HBase不限制HMaster的个数,所以理论上而言,HMaster不存在单点故障
当HBase集群中存在多个HMaster的时候,此时多个HMaster之间会存在Active和Backup状态
为了保证数据的一致性,Active HMaster在接收到请求之后,会将信息同步给其他的Backup HMasters,同步的节点数量越多,效率会越低。也因此,虽然HBase中不限制HMaster的个数 ,但是实际过程中HMaster的数量一般不超过3个(1个Active HMaster + 2个Backup HMaster)
Active HMaster会实时监控Zookeeper上/hbase/backup-masters
下的子节点变化,以确定下一次需要将数据同步给哪些节点
当Zookeeper发现/hbase/master
节点消失的时候,意味着Active HMaster宕机,那么此时Zookeeper会从/hbase/backup-masters
的子节点中挑选一个切换为Active状态
HMaster的作用
管理HRegionServer,但是不同于NameNode对于DataNode的掌控,HMaster主要是负责HRegion在HRegionServer之间的分布和转移,即HRegion交给HRegionServer来管理,由HMaster决定
记录和管理元数据。HBase中的元数据包含:namespace的信息,表信息,列族信息等。也因此,凡是产生元数据的操作(DDL,create
,drop
,alter
,list
,enable
,disable
等)会经过HMaster,凡是不产生元数据的操作(DML,例如put
,append
,get
,scan
,delete
,deleteall
等)不会经过HMaster
客户端先访问Zookeeper,从Zookeeper中获取hbase:meta文件的存储位置
客户端获取到hbase:meta文件的位置之后,访问HRegionServer,读取hbase:meta文件
客户端会从hbase:meta文件中获取到要操作的HRegion所在的位置
客户端获取到HRegion的位置之后,会访问对应的HRegionServer,来试着操作这个HRegion
注意:HBase为了提高访问效率,还大量的应用了缓存机制
在客户端第一次访问Zookeeper之后,会缓存hbase:meta文件的位置,那么后续这个客户端在发起请求的时候,就可以不用访问Zookeeper
客户端在获取到HRegion的位置之后,还会缓存这个HRegion的位置,那么后续如果操作的是同一个HRegion,还可以减少对元数据的读取
如果这个过程中,发生了内存崩溃或者HRegion的分裂或者转移,会导致缓存失效
HRegionServer是HBase的从节点,负责管理HRegion。根据官方文档给定,每一个HRegionServer大约可以管理1000个HRegion
每一个HRegionServer中包含1到多个WAL,1个BlockCache以及0到多个HRegion
WAL(Write Ahead Log):发生在写操作之前的日志,在早期的版本中也称之为HLog
WAL类似于HDFS中的edits文件。当HRegionServer接收到写操作之后,会先将这个命令记录到WAL中,然后再将数据更新到对应的HRegion的HStore的memStore中
在HBase0.94版本之前,WAL采用的是串行写机制。从HBase0.94开始,引入了NIO中的Channel,从而支持了并行写机制,因此能够提高WAL的写入效率,从而提升HBase的并发量
通过WAL机制,能够有效的保证数据不会产生丢失,因为WAL是落地到的磁盘上的,因此会一定程度上降低写入效率。实际过程中,如果能够接收一定程度的数据丢失,那么可以关闭WAL
当WAL写满之后,会产生一个新的WAL。单个WAL文件的大小由属性hbase.regionserver.hlog.blocksize * hbase.regionserver.logroll.multiplier
来决定
早期的时候,hbase.regionserver.hlog.blocksize
的值默认和HDFS的Block等大,从HBase2.5开始,hbase.regionserver.hlog.blocksize
的值默认是HDFS Block的2倍大
早期的时候,hbase.regionserver.logroll.multiplier
的,默认值是0.95,从HBase2.5开始,hbase.regionserver.logroll.multiplier
的值是0.5
随着运行时间的推移,WAL的数量会越来越多,占用的磁盘会越来越多。因此,当WAL文件的个数超过指定数量的时候,按照时间顺序将产生的比较早的WAL清理掉。早期的时候,WAL的数量由hbase.regionserver.max.logs
来决定,默认值是32;从HBase2.x开始,这个属性被废弃掉,固定值就是32
BlockCache:数据块缓存
本质上就是一个读缓存,维系在内存中。早期的时候,BlockCache的大小是128M,从HBase2.x开始,是通过属性hfile.block.cache.size
来调节,默认值是0.4,即最多占用服务器内存的40%
需要注意的是,如果hbase.regionserver.global.memstore.size + hfile.block.cache.size > 0.8
,即这个HRegionServer上所有的memStore所占内存之和 + BlockCache占用的内存大小 > 服务器内存 * 0.8
,那么HRegionServer就会报错
当从HRegionServer来读取数据的时候,数据会先缓存到BlockCache中,然后再返回给客户端;客户端下一次读取的时候,可以直接从BlockCache中获取数据
BlockCache在进行缓存的时候,还会采用"局部性"原理。所谓的"局部性"原理本质上就是根据时间或者空间规律来提高猜测的命中率
时间局部性:当一条数据被读取之后,HRegionServer会认为这条数据被再次读取的概率要高于其他没有被读取过的数据,那么此时HRegionServer就会将这条数据放入BlockCache中
空间局部性:当一条数据被读取之后,HRegionServer会认为与这条数据相邻的数据被读取的概率要高于其他的数据,那么此时HRegionServer会将与这条数据相邻的数据也放入BlockCache中
BlockCache还采用了LRU(Least Recently Used,最近最少使用)策略。除了LRUBlockCache以外,HBase还支持SlabBlockCache和BucketBlockCache
HRegion:HBase中分布式存储和管理的基本单位
每一个HRegion中包含1个到多个HStore,HStore的数量由列族数量来决定
每一个HStore中会包含1个memStore以及0到多个HFile/StoreFile
memStore本质上是一个写缓存
HStore在接收到数据之后,会将数据临时存储到memStore中
memStore是维系在内存中,由属性hbase.regionserver.memstore.flush.size
来决定,默认值是134217728B
当达到一定条件的时候,HRegionServer会将memStore中的数据进行flush(冲刷)操作,每次冲刷都会产生一个新的HFile
HFile最终会以Block形式落地到HDFS上
memStore的flush条件
当某一个memStore被用满之后,这个memStore所在的HRegion中的所有的memStore都会进行冲刷
当HRegionServer上,所有memStore所占内存之和 ≥ java_heapsize * hbase.regionserver.global.memstore.size * hbase.regionserver.global.memstore.upperLimit
,按照memStore的大小来依次冲刷,直到不满足上述条件为止。
java_heapsize
:java的堆内存大小
hbase.regionserver.global.memstore.size
:所有的memStore所能占用的内存比例,默认是0.4
hbase.regionserver.global.memstore.upperLimit
:上限,默认是0.95
假设服务器内存是128G,如果所有的memStore所占内存之和≥128G*0.4*0.95,将memStore从大到小依次冲刷,直到不满足条件为止
如果WAL的数量达到指定值,由于WAL会被清理掉,所以为了保证数据不丢失,那么会按照时间顺序,将memStore来依次冲刷
当距离上一次冲刷达到指定的时间间隔(可以通过属性hbase.regionserver.optionalflushinterval
来指定,单位是毫秒,默认值是3600000)的时候,也会自动的触发memStore的冲刷
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。