目录
Apache HBase ™ 是以 hdfs 为数据存储的,一种分布式、可扩展的 NoSQL 数据库。
Bigtable 是一个稀疏的、分布式的、持久的多维排序 map。
该映射由行键、列键和时间戳索引;映射中的每个值都是一个未解释的字节数组。
最终 HBase 关于数据模型和 BigTable 的对应关系如下:
HBase 使用与 Bigtable 非常相似的数据模型。用户将数据行存储在带标签的表中。数 据行具有可排序的键和任意数量的列。该表存储稀疏,因此如果用户喜欢,同一表中的行可 以具有疯狂变化的列。
- {
- "row_key1": {
- "personal_info": {
- "name": "zhangsan",
- "city": "北京",
- "phone": "131********"
- },
- "office_info": {
- "tel": "010-1111111",
- "address": "atguigu"
- }
- },
- "row_key11": {
- "personal_info": {
- "city": "上海",
- "phone": "132********"
- },
- "office_info": {
- "tel": "010-1111111"
- }
- },
- "row_key2": {
- ......
- }
物理存储结构即为数据映射关系,而在概念视图的空单元格,底层实际根本不存储。
1)Name Space
命名空间,类似于关系型数据库的 database 概念,每个命名空间下有多个表。HBase 两个自带的命名空间,分别是 hbase 和 default,hbase 中存放的是 HBase 内置的表(供系统使用),default表是用户默认使用的命名空间。
类似于关系型数据库的表(Table)概念。不同的是,HBase 定义表时只需要声明列族即可,不需要声明具体的列。因为数据存储时稀疏的,所有往 HBase 写入数据时,字段可以 动态、按需 指定。因此,和关系型数据库相比,HBase 能够轻松应对字段变更的场景。
HBase 表中的每行数据都由一个 RowKey 和多个 Column (列)组成,数据是按照 RowKey 的字典顺序存储的,并且查询数据时只能根据 RowKey 进行检索,所以 RowKey 的设计十分重要。
HBase 中的每个列都由 Column Family(列族) 和 Column Qualifier(列限定符) 进行限定,例如 info:name,info:age。建表时,只需指明列族,而列限定符无需预先定义。
用于标识数据的不同版本(version),每条数据写入时,系统会自动为其加上该字段,其值为写入HBase 的时间。
由 {rowkey, column Family : column Qualifier, timestamp} 唯一确定的单元。 cell 中的数据全部是字节码形式存贮。
(1)管理元数据表格 hbase:meta,接收用户对表格创建修改删除的命令并执行(2)监控 region 是否需要进行负载均衡,故障转移和 region 的拆分。
① LoadBalancer 负载均衡器周期性监控 region 分布在 regionServer 上面是否均衡,由参数 hbase.balancer.period 控制周期时间,默认 5 分钟。② CatalogJanitor 元数据管理器定期检查和清理 hbase:meta 中的数据。 meta 表内容在进阶中介绍。③ MasterProcWAL master 预写日志处理器把 master 需要执行的任务记录到预写日志 WAL 中,如果 master 宕机,让 backupMaster读取日志继续干。
(1)负责数据 cell 的处理,例如写入数据 put ,查询数据 get 等(2)拆分合并 region 的实际执行者,有 master 监控,有 regionServer 执行。
HBase 通过 Zookeeper 来做 master 的高可用、记录 RegionServer 的部署信息、并且存储有 meta 表的位置信息。HBase 对于数据的读写操作时直接访问 Zookeeper 的,在 2.3 版本推出 Master Registry模式,客户端可以直接访问 master 。使用此功能,会加大对 master 的压力,减轻对 Zookeeper的压力。
HDFS 为 Hbase 提供最终的底层数据存储服务,同时为 HBase 提供高容错的支持。
附:根据自己的集群进行适当改变,本文用的集群是hadoop102,103,104
- [atguigu@hadoop102 software]$ tar -zxvf hbase-2.4.11-bin.tar.gz -C
- /opt/module/
- [atguigu@hadoop102 software]$ mv /opt/module/hbase-2.4.11
- /opt/module/hbase
[atguigu@hadoop102 ~]$ sudo vim /etc/profile.d/my_env.sh
添加如下代码:
- #HBASE_HOME
- export HBASE_HOME=/opt/module/hbase
- export PATH=$PATH:$HBASE_HOME/bin
[atguigu@hadoop102 module]$ source /etc/profile.d/my_env.sh
export HBASE_MANAGES_ZK=false
- <?xml version="1.0"?>
- <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
- <configuration>
- <property>
- <name>hbase.zookeeper.quorum</name>
- <value>hadoop102,hadoop103,hadoop104</value>
- <description>The directory shared by RegionServers.
- </description>
- </property>
- <!-- <property>-->
- <!-- <name>hbase.zookeeper.property.dataDir</name>-->
- <!-- <value>/export/zookeeper</value>-->
- <!-- <description> 记得修改 ZK 的配置文件 -->
- <!-- ZK 的信息不能保存到临时文件夹-->
- <!-- </description>-->
- <!-- </property>-->
- <property>
- <name>hbase.rootdir</name>
- <value>hdfs://hadoop102:8020/hbase</value>
- <description>The directory shared by RegionServers.
- </description>
- </property>
- <property>
- <name>hbase.cluster.distributed</name>
- <value>true</value>
- </property>
- </configuration>
- hadoop102
- hadoop103
- hadoop104
- [atguigu@hadoop102 hbase]$ mv /opt/module/hbase/lib/client-facingthirdparty/slf4j-
- reload4j-1.7.33.jar /opt/module/hbase/lib/clientfacing-thirdparty/slf4j-reload4j-
- 1.7.33.jar.bak
[atguigu@hadoop102 module]$ xsync hbase/
- [atguigu@hadoop102 hbase]$ bin/hbase-daemon.sh start master
- [atguigu@hadoop102 hbase]$ bin/hbase-daemon.sh start regionserver