Flink CDC 常用两种方式进行数据的全量+增量一体的数据同步,数据清洗等功能。主要使用方法:
解决方案:
#修改配置文件
vim conf/flink-conf.yaml
classloader.resolve-order: parent-first
采用此方式,如有缺少其他依赖报错,应将依赖包放到flink/lib下,且注意配置flink环境变量
解决方案:
在oracle12c中,由于采用cdb+pdb的模式,故配置的DB为cdb+pdb,例如
现将DB均改为PDB名称即可
解决方案:
把database-name, schema-name, table-name全部改在大写
解决方案:
利用checkpoint和savepoint即可实现断点续传,无需自己处理
解决方案:
序列化时增加如下配置
解决方案:
oracle同步日期字段时,需要自定义OracleDateConverter,当采用flink-sql-connector-oracle-cdc jar包时报错,采用flink-connector-oracle-cdc不报错,后查看flink-sql-connector-oracle-cdc pom源码,官网做了jar迁移
采用迁移后的包中的SchemaBuilder类引用即可
flink-cdc-connectors官方文档:https://ververica.github.io/flink-cdc-connectors/release-2.4/
debezium官方文档:https://debezium.io/documentation/reference/1.9/index.html