这只是为了安全,只让这个用户有读数据库的权限
CREATE USER canal IDENTIFIED BY 'canal'; GRANT SELECT, REPLICATION SLAVE, REPLICATION CLIENT ON *.* TO 'canal'@'%'; -- GRANT ALL PRIVILEGES ON *.* TO 'canal'@'%' ; FLUSH PRIVILEGES;
#将用户root的host修改为%实现IP登录 update user set host = '%' where user ='canal';
#刷新权限数据表
flush privileges;
查看是不是开启了bin
show variables like 'log_bin';
先查下镜像版本: Docker Hub
docker pull canal/canal-server:v1.1.6
docker run --name canal -d canal/canal-server:v1.1.5
进docker 查看文件: docker exec -it 370cd2adf99c /bin/bash
对照是否有下面要拷贝的目录:/home/admin/canal-server/conf/
查看docker 里的日志 tail -100f /home/admin/canal-server/logs/example/example.log
docker cp [容器索引]:[内部路径] [外部路径]
docker cp canal:/home/admin/canal-server/conf/canal.properties /usr/local/canal docker cp canal:/home/admin/canal-server/conf/example/instance.properties /usr/local/canal/example
修改:instance.properties


#关闭容器 docker stop canal
#移除容器 docker rm canal
docker run --restart=always --name canal -p 11111:11111 -d -v /usr/local/canal/example/instance.properties:/home/admin/canal-server/conf/example/instance.properties -v /usr/local/canal/canal.properties:/home/admin/canal-server/conf/canal.properties canal/canal-server:v1.1.5
查所有表

这样才是对的。
不知道为什么用本地mysql8可以,用112上的mysql8就不行。


当启动两个一样的Test单元测试, 当修改数据库测试,同一时间只会有一个程序会接受数据,不会两个程序同时接受数据,所以可以分布式部署来监控bin_log, 经测试,基本上是轮训。
-
- <dependency>
- <groupId>com.alibaba.otter</groupId>
- <artifactId>canal.client</artifactId>
- <version>1.1.6</version>
- </dependency>
- <dependency>
- <groupId>com.alibaba.otter</groupId>
- <artifactId>canal.protocol</artifactId>
- <version>1.1.6</version>
- </dependency>
- <dependency>
- <groupId>com.alibaba.otter</groupId>
- <artifactId>canal.common</artifactId>
- <version>1.1.6</version>
- </dependency>
- package com.lm.demo.test;
-
- import com.alibaba.otter.canal.client.CanalConnector;
- import com.alibaba.otter.canal.client.CanalConnectors;
- import com.alibaba.otter.canal.protocol.CanalEntry;
- import com.alibaba.otter.canal.protocol.Message;
- import org.junit.Test;
-
- import java.net.InetSocketAddress;
- import java.util.List;
- import java.util.concurrent.TimeUnit;
-
- /**
- * canal client api 的使用
- * https://github.com/alibaba/canal/wiki/ClientExample
- * 测试过程中发现,如果修改一个sql语句,但是修改的值没有发生变化,则此处不会监控到。
- * 同一个客户端启动多次,只有一个客户端可以获取到数据
- *
- * @author huan.fu 2021/5/31 - 上午10:31
- */
-
- public class CanalClientApiTest {
-
-
- @Test
- public void test2( ) {
- test();
-
- }
- @Test
- public void test( ) {
-
- String destination = "example";
- // 创建一个 canal 链接
- CanalConnector canalConnector = CanalConnectors.newSingleConnector(new InetSocketAddress("192.168.112.112", 11111), destination, "admin", "4ACFE3202A5FF5CF467898FC58AAB1D615029441");
- // 链接对应的canal server
- canalConnector.connect();
- // 订阅那个库的那个表等
- /**
- * 订阅规则
- * 1. 所有表:.* or .*\\..*
- * 2. canal schema下所有表: canal\\..*
- * 3. canal下的以canal打头的表:canal\\.canal.*
- * 4. canal schema下的一张表:canal\\.test1
- * 5. 多个规则组合使用:canal\\..*,mysql.test1,mysql.test2 (逗号分隔)
- */
- //canalConnector.subscribe("temp_work\\.customer");
- canalConnector.subscribe(".*\\..*"); //test库下所有表
- // 回滚到未进行 #ack 的地方,下次fetch的时候,可以从最后一个没有 #ack 的地方开始拿
- canalConnector.rollback();
- int batchSize = 1000;
- while (true) {
- // 获取一批数据,不一定会获取到 batchSize 条
- Message message = canalConnector.getWithoutAck(batchSize);
- // 获取批次id
- long batchId = message.getId();
- // 获取数据
- List<CanalEntry.Entry> entries = message.getEntries();
- if (batchId == -1 || entries.isEmpty()) {
- System.out.println("没有获取到数据");
- try {
- TimeUnit.SECONDS.sleep(3);
- } catch (InterruptedException e) {
- e.printStackTrace();
- }
- continue;
- }
- for (CanalEntry.Entry entry : entries) {
- if (entry.getEntryType() == CanalEntry.EntryType.TRANSACTIONBEGIN || entry.getEntryType() == CanalEntry.EntryType.TRANSACTIONEND) {
- continue;
- }
-
- CanalEntry.RowChange rowChange;
- try {
- rowChange = CanalEntry.RowChange.parseFrom(entry.getStoreValue());
- } catch (Exception e) {
- throw new RuntimeException("解析binlog数据出现异常 , data:" + entry.toString(), e);
- }
-
- CanalEntry.EventType eventType = rowChange.getEventType();
- System.out.println(String.format("================> binlog[%s:%s] , name[%s,%s] , eventType : %s",
- entry.getHeader().getLogfileName(), entry.getHeader().getLogfileOffset(),
- entry.getHeader().getSchemaName(), entry.getHeader().getTableName(),
- eventType));
-
- if (eventType == CanalEntry.EventType.QUERY || rowChange.getIsDdl()) {
- System.out.println("sql => " + rowChange.getSql());
- }
-
- for (CanalEntry.RowData rowData : rowChange.getRowDatasList()) {
- if (eventType == CanalEntry.EventType.DELETE) {
- printColumn(rowData.getBeforeColumnsList());
- } else if (eventType == CanalEntry.EventType.INSERT) {
- printColumn(rowData.getAfterColumnsList());
- } else {
- System.out.println("-------> before");
- printColumn(rowData.getBeforeColumnsList());
- System.out.println("-------> after");
- printColumn(rowData.getAfterColumnsList());
- }
- }
- }
- canalConnector.ack(batchId);
- }
- }
-
- private static void printColumn(List<CanalEntry.Column> columns) {
- for (CanalEntry.Column column : columns) {
- System.out.println(column.getName() + " : " + column.getValue() + " update=" + column.getUpdated());
- }
- }
- }