• Hbase 协处理器


    1、协处理器概述

    官方地址

    Apache HBase ™ Reference Guide

            访问HBase的方式是使用scan或get获取数据,在获取到的数据上进行业务运算。但是在数据量非常大的时候,比如一个有上亿行及十万个列的数据集,再按常用的方式移动获取数据就会遇到性能问题。客户端也需要有强大的计算能力以及足够的内存来处理这么多的数据。

            此时就可以考虑使用Coprocessor(协处理器)。将业务运算代码封装到Coprocessor中并在RegionServer上运行,即在数据实际存储位置执行,最后将运算结果返回到客户端。利用协处理器,用户可以编写运行在 HBase Server 端的代码。

    Hbase Coprocessor类似以下概念

    触发器和存储过程:一个Observer Coprocessor有些类似于关系型数据库中的触发器,通过它我们可以在一些事件(如Get或是Scan)发生前后执行特定的代码。Endpoint Coprocessor则类似于关系型数据库中的存储过程,因为它允许我们在RegionServer上直接对它存储的数据进行运算,而非是在客户端完成运算。

    MapReduce:MapReduce的原则就是将运算移动到数据所处的节点。Coprocessor也是按照相同的原则去工作的。

    AOP:如果熟悉AOP的概念的话,可以将Coprocessor的执行过程视为在传递请求的过程中对请求进行了拦截,并执行了一些自定义代码。

    2、协处理器类型

    Observer

            协处理器与触发器(trigger)类似:在一些特定事件发生时回调函数(也被称作钩子函数,hook)被执行。这些事件包括一些用户产生的事件,也包括服务器端内部自动产生的事件。

    协处理器框架提供的接口如下

    • RegionObserver:用户可以用这种的处理器处理数据修改事件,它们与表的region联系紧密。
    • MasterObserver:可以被用作管理或DDL类型的操作,这些是集群级事件。
    • WALObserver:提供控制WAL的钩子函数

    Endpoint

            这类协处理器类似传统数据库中的存储过程,客户端可以调用这些 Endpoint 协处理器在Regionserver中执行一段代码,并将 RegionServer 端执行结果返回给客户端进一步处理。

    Endpoint常见用途

    聚合操作

    • 假设需要找出一张表中的最大数据,即 max 聚合操作,普通做法就是必须进行全表扫描,然后Client代码内遍历扫描结果,并执行求最大值的操作。这种方式存在的弊端是无法利用底层集群的并发运算能力,把所有计算都集中到 Client 端执行,效率低下。
    • 使用Endpoint Coprocessor,用户可以将求最大值的代码部署到 HBase RegionServer 端,HBase会利用集群中多个节点的优势来并发执行求最大值的操作。也就是在每个 Region 范围内执行求最大值的代码,将每个 Region 的最大值在 Region Server 端计算出,仅仅将该 max 值返回给Client。在Client进一步将多个 Region 的最大值汇总进一步找到全局的最大值。
    • Endpoint Coprocessor的应用我们后续可以借助于Phoenix非常容易就能实现。针对Hbase数据集进行聚合运算直接使用SQL语句就能搞定。

    3、Observer 案例

    需求:通过协处理器Observer实现Hbase当中t1表插入数据,指定的另一张表t2也需要插入相对应的数据。

    create 't1','info'
    create 't2','info'

    实现思路:通过Observer协处理器捕捉到t1插入数据时,将数据复制一份并保存到t2表中

    开发步骤:

    (1)编写Observer协处理器,添加依赖

    1. <dependency>
    2. <groupId>org.apache.hbasegroupId>
    3. <artifactId>hbase-serverartifactId>
    4. <version>1.3.1version>
    5. dependency>
    1. import org.apache.hadoop.hbase.Cell;
    2. import org.apache.hadoop.hbase.TableName;
    3. import org.apache.hadoop.hbase.client.Durability;
    4. import org.apache.hadoop.hbase.client.HTable;
    5. import org.apache.hadoop.hbase.client.Put;
    6. import org.apache.hadoop.hbase.coprocessor.BaseRegionObserver;
    7. import org.apache.hadoop.hbase.coprocessor.ObserverContext;
    8. import org.apache.hadoop.hbase.coprocessor.RegionCoprocessorEnvironment;
    9. import org.apache.hadoop.hbase.regionserver.wal.WALEdit;
    10. import org.apache.hadoop.hbase.util.Bytes;
    11. import java.io.IOException;
    12. import java.util.List;
    13. //重写prePut方法,监听到向t1表插入数据时,执行向t2表插入数据的代码
    14. public class MyProcessor extends BaseRegionObserver {
    15. @Override
    16. public void prePut(ObserverContext e, Put put, WALEdit edit, Durability durability) throws IOException {
    17. //把自己需要执行的逻辑定义在此处,向t2表插入数据,数据具体是什么内容与Put一样
    18. //获取t2表table对象
    19. final HTable t2 = (HTable) e.getEnvironment().getTable(TableName.valueOf("t2"));
    20. //解析t1表的插入对象put
    21. final Cell cell = put.get(Bytes.toBytes("info"), Bytes.toBytes("name")).get(0);
    22. //table对象.put
    23. final Put put1 = new Put(put.getRow());
    24. put1.add(cell);
    25. t2.put(put1); //执行向t2表插入数据
    26. t2.close();
    27. }
    28. }

    (2)打成Jar包,上传HDFS

    1. cd /opt/lagou/softwares
    2. mv original-hbaseStudy-1.0-SNAPSHOT.jar processor.jar
    3. hdfs dfs -mkdir -p /processor
    4. hdfs dfs -put processor.jar /processor

    (3)挂载协处理器

    1. hbase(main):056:0> describe 't1'
    2. hbase(main):055:0> alter 't1',METHOD => 'table_att','Coprocessor'=>'hdfs://linux121:9000/processor/processor.jar|com.lagou.hbase.processor.MyProcessor|1001|'
    3. #再次查看't1'表,
    4. hbase(main):043:0> describe 't1'

    (4)验证协处理器

    # 向t1表中插入数据(shell方式验证)

    put 't1','rk1','info:name','lisi'

    (5)卸载协处理器

    1. disable 't1'
    2. alter 't1',METHOD=>'table_att_unset',NAME=>'coprocessor$1' enable 't2'
  • 相关阅读:
    【无标题】
    库中如何实现vector
    通讯录管理系统JAVA版本
    全志T3 ARM+Ethercat+Codesys工业控制器设计方案
    java-php-python-ssm在校大学生健康状况信息管理系统计算机毕业设计
    Python零基础入门篇 · 21】:构造函数、类属性和实例属性的访问
    Python数据分析与机器学习30-SVM实例
    java计算机毕业设计基于springboo高校学报论文在线投稿系统
    接口自动化测试(Python+Requests+Unittest)
    Page Cache的产生和释放
  • 原文地址:https://blog.csdn.net/weixin_52851967/article/details/127609581