目录
2.下载Seata(1.4.2版本,其他版本可能与本章教程冲突)
分布式事务是指事务的参与者、支持事务的服务器、资源服务器以及事务管理器分别位于不同的分布式系统的不同节点之上。

在分布式系统下,一个业务跨越多个服务或数据源,每个服务都是一个分支事务,要保证所有分支事务最终状态一致,这样的事务就是分布式事务。例:

1998年,加州大学的计算机科学家 Eric Brewer 提出,分布式系统有三个指标:

Eric Brewer 说,分布式系统无法同时满足这三个指标。 这个结论就叫做 CAP 定理。
BASE理论是对CAP的一种解决思路,包含三个思想:
而分布式事务最大的问题是各个子事务的一致性问题,因此可以借鉴CAP定理和BASE理论:
Seata是 2019 年 1 月份蚂蚁金服和阿里巴巴共同开源的分布式事务解决方案。致力于提供高性能和简单易用的分布式事务服务,为用户打造一站式的分布式解决方案。 官网地址:http://seata.io/其中的文档、播客中提供了大量的使用说明、源码分析。

Seata事务管理中有三个重要的角色:

Seata提供了四种不同的分布式事务解决方案:
下载地址:https://github.com/seata/seata/releases

下载解压后:

修改conf目录下的 registry.conf 文件(直接复制替换)

- registry {
- # tc服务的注册中心类,这里选择nacos,也可以是eureka、zookeeper等
- type = "nacos"
-
- nacos {
- # seata tc 服务注册到 nacos的服务名称,可以自定义
- application = "seata-tc-server"
- serverAddr = "127.0.0.1:8848"
- group = "DEFAULT_GROUP"
- namespace = ""
- cluster = "SH"
- username = "nacos"
- password = "nacos"
- }
- }
-
- config {
- # 读取tc服务端的配置文件的方式,这里是从nacos配置中心读取,这样如果tc是集群,可以共享配置
- type = "nacos"
- # 配置nacos地址等信息
- nacos {
- serverAddr = "127.0.0.1:8848"
- namespace = ""
- group = "SEATA_GROUP"
- username = "nacos"
- password = "nacos"
- dataId = "seataServer.properties"
- }
- }
特别注意,为了让tc服务的集群可以共享配置,我们选择了nacos作为统一配置中心。因此服务端配置文件seataServer.properties文件需要在nacos中配好。

配置内容是(其中的数据库地址、用户名、密码都需要修改成你自己的数据库信息。):
- # 数据存储方式,db代表数据库
- store.mode=db
- store.db.datasource=druid
- store.db.dbType=mysql
- store.db.driverClassName=com.mysql.jdbc.Driver
- store.db.url=jdbc:mysql://127.0.0.1:3306/seata?useUnicode=true&rewriteBatchedStatements=true
- store.db.user=root
- store.db.password=123
- store.db.minConn=5
- store.db.maxConn=30
- store.db.globalTable=global_table
- store.db.branchTable=branch_table
- store.db.queryLimit=100
- store.db.lockTable=lock_table
- store.db.maxWait=5000
- # 事务、日志等配置
- server.recovery.committingRetryPeriod=1000
- server.recovery.asynCommittingRetryPeriod=1000
- server.recovery.rollbackingRetryPeriod=1000
- server.recovery.timeoutRetryPeriod=1000
- server.maxCommitRetryTimeout=-1
- server.maxRollbackRetryTimeout=-1
- server.rollbackRetryTimeoutUnlockEnable=false
- server.undo.logSaveDays=7
- server.undo.logDeletePeriod=86400000
-
- # 客户端与服务端传输方式
- transport.serialization=seata
- transport.compressor=none
- # 关闭metrics功能,提高性能
- metrics.enabled=false
- metrics.registryType=compact
- metrics.exporterList=prometheus
- metrics.exporterPrometheusPort=9898
特别注意:tc服务在管理分布式事务时,需要记录事务相关数据到数据库中,你需要提前创建好这些表。
- -- ----------------------------
- -- 分支事务表
- -- ----------------------------
- DROP TABLE IF EXISTS `branch_table`;
- CREATE TABLE `branch_table` (
- `branch_id` bigint(20) NOT NULL,
- `xid` varchar(128) CHARACTER SET utf8 COLLATE utf8_general_ci NOT NULL,
- `transaction_id` bigint(20) NULL DEFAULT NULL,
- `resource_group_id` varchar(32) CHARACTER SET utf8 COLLATE utf8_general_ci NULL DEFAULT NULL,
- `resource_id` varchar(256) CHARACTER SET utf8 COLLATE utf8_general_ci NULL DEFAULT NULL,
- `branch_type` varchar(8) CHARACTER SET utf8 COLLATE utf8_general_ci NULL DEFAULT NULL,
- `status` tinyint(4) NULL DEFAULT NULL,
- `client_id` varchar(64) CHARACTER SET utf8 COLLATE utf8_general_ci NULL DEFAULT NULL,
- `application_data` varchar(2000) CHARACTER SET utf8 COLLATE utf8_general_ci NULL DEFAULT NULL,
- `gmt_create` datetime(6) NULL DEFAULT NULL,
- `gmt_modified` datetime(6) NULL DEFAULT NULL,
- PRIMARY KEY (`branch_id`) USING BTREE,
- INDEX `idx_xid`(`xid`) USING BTREE
- ) ENGINE = InnoDB CHARACTER SET = utf8 COLLATE = utf8_general_ci ROW_FORMAT = Compact;
-
- -- ----------------------------
- -- 全局事务表
- -- ----------------------------
- DROP TABLE IF EXISTS `global_table`;
- CREATE TABLE `global_table` (
- `xid` varchar(128) CHARACTER SET utf8 COLLATE utf8_general_ci NOT NULL,
- `transaction_id` bigint(20) NULL DEFAULT NULL,
- `status` tinyint(4) NOT NULL,
- `application_id` varchar(32) CHARACTER SET utf8 COLLATE utf8_general_ci NULL DEFAULT NULL,
- `transaction_service_group` varchar(32) CHARACTER SET utf8 COLLATE utf8_general_ci NULL DEFAULT NULL,
- `transaction_name` varchar(128) CHARACTER SET utf8 COLLATE utf8_general_ci NULL DEFAULT NULL,
- `timeout` int(11) NULL DEFAULT NULL,
- `begin_time` bigint(20) NULL DEFAULT NULL,
- `application_data` varchar(2000) CHARACTER SET utf8 COLLATE utf8_general_ci NULL DEFAULT NULL,
- `gmt_create` datetime NULL DEFAULT NULL,
- `gmt_modified` datetime NULL DEFAULT NULL,
- PRIMARY KEY (`xid`) USING BTREE,
- INDEX `idx_gmt_modified_status`(`gmt_modified`, `status`) USING BTREE,
- INDEX `idx_transaction_id`(`transaction_id`) USING BTREE
- ) ENGINE = InnoDB CHARACTER SET = utf8 COLLATE = utf8_general_ci ROW_FORMAT = Compact;
进入bin目录,运行其中的seata-server.bat即可(默认的端口是8091):

如需修改端口可以使用以下命令运行:
seata-server.bat -p 8091
启动成功后,seata-server应该已经注册到nacos注册中心了。
打开浏览器,访问nacos地址:http://localhost:8848,然后进入服务列表页面,可以看到seata-tc-server的信息:
- <dependency>
- <groupId>com.alibaba.cloudgroupId>
- <artifactId>spring-cloud-starter-alibaba-seataartifactId>
- <exclusions>
-
- <exclusion>
- <artifactId>seata-spring-boot-starterartifactId>
- <groupId>io.seatagroupId>
- exclusion>
- exclusions>
- dependency>
- <dependency>
- <groupId>io.seatagroupId>
- <artifactId>seata-spring-boot-starterartifactId>
- <version>${seata.version}version>
- dependency>
需要修改application.yml文件,添加一些配置:
- seata:
- registry: # TC服务注册中心的配置,微服务根据这些信息去注册中心获取tc服务地址
- # 参考tc服务自己的registry.conf中的配置
- type: nacos
- nacos: # tc
- server-addr: 127.0.0.1:8848
- namespace: ""
- group: DEFAULT_GROUP
- application: seata-tc-server # tc服务在nacos中的服务名称
- cluster: SH
- tx-service-group: seata-demo # 事务组,根据这个获取tc服务的cluster名称
- service:
- vgroup-mapping: # 事务组与TC服务cluster的映射关系
- seata-demo: SH
微服务如何根据这些配置寻找TC的地址呢?
我们知道注册到Nacos中的微服务,确定一个具体实例需要四个信息:
namespace为空,就是默认的public,结合起来,TC服务的信息就是:public@DEFAULT_GROUP@seata-tc-server@SH,这样就能确定TC服务集群了。然后就可以去Nacos拉取对应的实例信息了。
XA 规范 是 X/Open 组织定义的分布式事务处理(DTP,Distributed Transaction Processing)标准,XA 规范 描述了全局的TM与局部的RM之间的接口,几乎所有主流的数据库都对 XA 规范 提供了支持。
XA是规范,目前主流数据库都实现了这种规范,实现的原理都是基于两阶段提交。
正常情况:

异常情况:

一阶段:
事务协调者通知每个事物参与者执行本地事务
本地事务执行完成后报告事务执行状态给事务协调者,此时事务不提交,继续持有数据库锁
二阶段:
事务协调者基于一阶段的报告来判断下一步操作
如果一阶段都成功,则通知所有事务参与者,提交事务
如果一阶段任意一个参与者失败,则通知所有事务参与者回滚事务
Seata对原始的XA模式做了简单的封装和改造,以适应自己的事务模型,基本架构如图:

RM一阶段的工作:
① 注册分支事务到TC
② 执行分支业务sql但不提交
③ 报告执行状态到TC
TC二阶段的工作:
TC检测各分支事务执行状态
a.如果都成功,通知所有RM提交事务
b.如果有失败,通知所有RM回滚事务
RM二阶段的工作:
接收TC指令,提交或回滚事务
事务的强一致性,满足ACID原则。
常用数据库都支持,实现简单,并且没有代码侵入
因为一阶段需要锁定数据库资源,等待二阶段结束才释放,性能较差
依赖关系型数据库实现事务
1)修改application.yml文件(每个参与事务的微服务),开启XA模式:
- seata:
- data-source-proxy-mode: XA
2)给发起全局事务的入口方法添加@GlobalTransactional注解:

AT模式同样是分阶段提交的事务模型,不过缺弥补了XA模型中资源锁定周期过长的缺陷。

阶段一RM的工作:
阶段二提交时RM的工作:删除undo-log即可
阶段二回滚时RM的工作:根据undo-log恢复数据到更新前
简述AT模式与XA模式最大的区别是什么?
XA模式一阶段不提交事务,锁定资源;AT模式一阶段直接提交,不锁定资源。
XA模式依赖数据库机制实现回滚;AT模式利用数据快照实现数据回滚。
XA模式强一致;AT模式最终一致。
一阶段完成直接提交事务,释放数据库资源,性能比较好
利用全局锁实现读写隔离
没有代码侵入,框架自动完成回滚和提交
两阶段之间属于软状态,属于最终一致
框架的快照功能会影响性能,但比XA模式要好很多
1)导入数据库表,记录全局锁
2)修改application.yml文件,将事务模式修改为AT模式即可:
- seata:
- data-source-proxy-mode: AT # 默认就是AT
TCC模式与AT模式非常相似,每阶段都是独立事务,不同的是TCC通过人工编码来实现数据恢复。需要实现三个方法:
Try:资源的检测和预留;
Confirm:完成资源操作业务;要求 Try 成功 Confirm 一定要能成功。
Cancel:预留资源释放,可以理解为try的反向操作。

Try:资源检查和预留
Confirm:业务执行和提交
Cancel:预留资源的释放
一阶段完成直接提交事务,释放数据库资源,性能好
相比AT模型,无需生成快照,无需使用全局锁,性能最强
不依赖数据库事务,而是依赖补偿操作,可以用于非事务型数据库
有代码侵入,需要人为编写try、Confirm和Cancel接口,太麻烦
软状态,事务是最终一致
需要考虑Confirm和Cancel的失败情况,做好幂等处理
1)TCC的Try、Confirm、Cancel方法都需要在接口中基于注解来声明
- @LocalTCC
- public interface AccountTCCService {
-
- @TwoPhaseBusinessAction(name = "deduct", commitMethod = "confirm", rollbackMethod = "cancel")
- void deduct(@BusinessActionContextParameter(paramName = "userId") String userId,
- @BusinessActionContextParameter(paramName = "money")int money);
-
- boolean confirm(BusinessActionContext ctx);
-
- boolean cancel(BusinessActionContext ctx);
- }
2)编写实现类
Saga 模式是 Seata 即将开源的长事务解决方案,将由蚂蚁金服主要贡献。
其理论基础是Hector & Kenneth 在1987年发表的论文Sagas。
Seata官网对于Saga的指南:https://seata.io/zh-cn/docs/user/saga.html
在 Saga 模式下,分布式事务内有多个参与者,每一个参与者都是一个冲正补偿服务,需要用户根据业务场景实现其正向操作和逆向回滚操作。
分布式事务执行过程中,依次执行各参与者的正向操作,如果所有正向操作均执行成功,那么分布式事务提交。如果任何一个正向操作执行失败,那么分布式事务会去退回去执行前面各参与者的逆向回滚操作,回滚已提交的参与者,使分布式事务回到初始状态。
一阶段:直接提交本地事务
二阶段:成功则什么都不做;失败则通过编写补偿业务来回滚
事务参与者可以基于事件驱动实现异步调用,吞吐高
一阶段直接提交事务,无锁,性能好
实现简单
软状态持续时间不确定,时效性差
没有锁,没有事务隔离,会有脏写
我们从以下几个方面来对比四种实现:

搭建TC服务集群非常简单,启动多个TC服务,注册到nacos即可。但集群并不能确保100%安全,万一集群所在机房故障怎么办?所以如果要求较高,一般都会做异地多机房容灾。
比如一个TC集群在上海,另一个TC集群在杭州:

微服务基于事务组(tx-service-group)与TC集群的映射关系,来查找当前应该使用哪个TC集群。当SH集群故障时,只需要将vgroup-mapping中的映射关系改成HZ。则所有微服务就会切换到HZ的TC集群了。
计划启动两台seata的tc服务节点:

将seata目录复制一份,起名为seata2,修改seata2/conf/registry.conf内容如下:
- registry {
- # tc服务的注册中心类,这里选择nacos,也可以是eureka、zookeeper等
- type = "nacos"
-
- nacos {
- # seata tc 服务注册到 nacos的服务名称,可以自定义
- application = "seata-tc-server"
- serverAddr = "127.0.0.1:8848"
- group = "DEFAULT_GROUP"
- namespace = ""
- cluster = "HZ"
- username = "nacos"
- password = "nacos"
- }
- }
-
- config {
- # 读取tc服务端的配置文件的方式,这里是从nacos配置中心读取,这样如果tc是集群,可以共享配置
- type = "nacos"
- # 配置nacos地址等信息
- nacos {
- serverAddr = "127.0.0.1:8848"
- namespace = ""
- group = "SEATA_GROUP"
- username = "nacos"
- password = "nacos"
- dataId = "seataServer.properties"
- }
- }
进入bin目录启动:
.\seata-server.bat -p 8092

接下来,需要将tx-service-group与cluster的映射关系都配置到nacos配置中心。
新建一个配置:

- # 事务组映射关系
- service.vgroupMapping.seata-demo=SH
-
- service.enableDegrade=false
- service.disableGlobalTransaction=false
- # 与TC服务的通信配置
- transport.type=TCP
- transport.server=NIO
- transport.heartbeat=true
- transport.enableClientBatchSendRequest=false
- transport.threadFactory.bossThreadPrefix=NettyBoss
- transport.threadFactory.workerThreadPrefix=NettyServerNIOWorker
- transport.threadFactory.serverExecutorThreadPrefix=NettyServerBizHandler
- transport.threadFactory.shareBossWorker=false
- transport.threadFactory.clientSelectorThreadPrefix=NettyClientSelector
- transport.threadFactory.clientSelectorThreadSize=1
- transport.threadFactory.clientWorkerThreadPrefix=NettyClientWorkerThread
- transport.threadFactory.bossThreadSize=1
- transport.threadFactory.workerThreadSize=default
- transport.shutdown.wait=3
- # RM配置
- client.rm.asyncCommitBufferLimit=10000
- client.rm.lock.retryInterval=10
- client.rm.lock.retryTimes=30
- client.rm.lock.retryPolicyBranchRollbackOnConflict=true
- client.rm.reportRetryCount=5
- client.rm.tableMetaCheckEnable=false
- client.rm.tableMetaCheckerInterval=60000
- client.rm.sqlParserType=druid
- client.rm.reportSuccessEnable=false
- client.rm.sagaBranchRegisterEnable=false
- # TM配置
- client.tm.commitRetryCount=5
- client.tm.rollbackRetryCount=5
- client.tm.defaultGlobalTransactionTimeout=60000
- client.tm.degradeCheck=false
- client.tm.degradeCheckAllowTimes=10
- client.tm.degradeCheckPeriod=2000
-
- # undo日志配置
- client.undo.dataValidation=true
- client.undo.logSerialization=jackson
- client.undo.onlyCareUpdateColumns=true
- client.undo.logTable=undo_log
- client.undo.compress.enable=true
- client.undo.compress.type=zip
- client.undo.compress.threshold=64k
- client.log.exceptionRate=100
- seata:
- config:
- type: nacos
- nacos:
- server-addr: 127.0.0.1:8848
- username: nacos
- password: nacos
- group: SEATA_GROUP
- data-id: client.properties
重启微服务,现在微服务到底是连接tc的SH集群,还是tc的HZ集群,都统一由nacos的client.properties来决定了。