Hive 计算的时候默认是一次处理一行。在处理下一行之前,这一行数据需要先经过所有计算。这种处理模式的 CPU 使用效率非常低。而且Hive 目前严重依赖比较慢的反序列化方式,数据会通过一层对象检查器,用来标识列类型、反序列化数据并在内部循环中确定适当的(计算)表达式。这些虚拟方法调用会进一步减慢了处理速度。(翻译自https://issues.apache.org/jira/browse/HIVE-4160)
所以 Hive 添加了矢量化查询、执行的支持,这样在 Hive 中就能一次处理大约一千行的批次(默认),而不是一行。批处理中的每一列都表示为基本数据类型的向量。执行的内部循环的时候能非常快速地扫描这些向量,避免了方法调用、反序列化、不必要的 if-then-else 等,这大大减少了CPU的使用时间。
当前支持以下数据类型:
tinyint
smallint
int
bigint
boolean
float
double
decimal
date
timestamp
string
在受支持的类型上使用时,可以对以下表达式进行矢量化:
hive开启矢量执行
set hive.vectorized.execution.enabled=true;
指定哪些文件可以矢量化处理,支持逗号分割
set hive.vectorized.input.format.excludes=org.apache.hadoop.hive.ql.io.parquet.MapredParquetInputFormat
并不是只有orc支持,parquet在https://issues.apache.org/jira/browse/HIVE-14826也加入矢量支持。
仅当时间戳值介于 1677-09-20 和 2262-04-11 之间时,时间戳才能正确处理矢量化执行。此限制是由于矢量化时间戳值存储为1970-01-01 00:00:00 UTC 的 Unix Epoch 时间之前/之后的纳秒的长值。
矢量化筛选器操作按从左到右的顺序计算,因此为了获得最佳性能,请将 UDF 放在 WHERE 子句的 ANDed 表达式列表中的右侧。例如,使用
column1 = 10 and myUDF(column2) = "x"
而不是
myUDF(column2) = "x" and column1 = 10