上次分享了《Dolphinscheduler配置Datax踩坑记录》,后有小伙伴私信问我说,在交换数据时,遇到hive分区表总是报错。结合实践案例的常见问题,我再记录一下datax读取hive分区表自定义配置的注意事项。
在dolphinscheduler中是可以通过自定义参数设置指定分区时间的,时间声明格式为
- $[yyyyMMddHHmmss] 注意是中括弧
- 可以根据需求分解成 $[yyyyMMdd]
- 或 $[HHmmss]
- 也可以根据日期格式调整为$[yyyy-MM-dd]
- 也可以通过"+“、”-" 设置偏移量
我们知道hive表是以文件的形式存储在HDFS中的,同时在读取hive表的配置脚本也是采用的"hdfsreader"。查看hdfs,我们可以看到分区表的文件目录名称不只是日期,而是分区字段和日的组合:“statis_date=2022-06-27”。
所以在脚本中reader我们这样配置:
"reader": {
"name": "hdfsreader",
"parameter": {
"column": [
{"index": 0,
"name": "ord_item_id",
"type": "string"
},
{"index": 1,
"name": "ord_id",
"type": "string"
},
{ "name": "statis_date",
"type": "string",
"value":"${statisdate}"
}
],
"defaultFS": "hdfs://hdfsnameservice",
"encoding": "UTF-8",
"fieldDelimiter": ",",
"fileType": "text",
"path": "/hivedw/ord_ads.db/t_ads_test_ord_table/statis_date=${statisdate}"
}
}
如上配置脚本中,当hdfs配置多台namenode采取高可用机制时,defaultFS地址可以直接配置成服务名称,但是要想让datax识别该名称地址,还需要将hdfs-site.xml和core-site.xml文件拷贝到hdfsreader-0.0.1-SNAPSHOT.jar中。
可以有两种方式:
我们通过sparksql任务写入分区表数据后,在分区目录下会产生一个"_SUCCESS"文件,该文件没有表数,也不符合datax解析的格式,所以在调度任务运行时会提示异常:
ERROR HdfsReader$Job - 检查文件[hdfs://hdfsnameservice/hivedw/ord_ads.db/t_ads_test_ord_table/statis_date=2022-06-27/_SUCCESS]类型失败,目前支持ORC,SEQUENCE,RCFile,TEXT,CSV五种格式的文件,请检查您文件类型和文件是否正确。
Caused by: java.lang.IndexOutOfBoundsException: null
这个问题需要通过修改datax源码,跳过_SUCCESS文件,并重新打包hdfsreader-0.0.1-SNAPSHOT.jar。
修改com.alibaba.datax.plugin.reader.hdfsreader.DFSUtil类,对目录下的文件进行简单的判断,如果是"_SUCCESS"则跳过。
通过maven重新打包,因为hdfsreader模块依赖较多,单独打包可能会报错,可以直接对整个工程(datax-all)打包。
打包后,在target目录下找到hdfsreader-0.0.1-SNAPSHOT.jar对安装文件替换。(替换前注意上一条提到的hdfs-site.xml和core-site.xml文件是否被打进包里)
重新调度后,通过Dolphinscheduler任务实例日志我们可看到_SUCCESS文件被跳过了