NO_ZERO_DATE
而报错。空值
,一种是严格模式
,会给出很多默认设置。在MySQL5.7之后默认使用严格模式。NO_ZERO_DATE
:若设置该值,MySQL数据库不允许插入零日期,插入零日期会抛出错误而不是警告。SET SESSION sql_mode = 'ONLY_FULL_GROUP_BY,STRICT_TRANS_TABLES,ERROR_FOR_DIVISION_BY_ZERO,NO_ENGINE_SUBSTITUTION';
乐观锁适合判断数据更新问题,而当前是判断是否存在,所以可以使用悲观锁解决。
锁的范围尽量小, synchronized
尽量锁代码块而不是方法,锁的范围越大性能越低。
锁的对象一定是一个不变的值,不能直接锁 Long
类型的 userId,每请求一次都会创建一个新的 userId 对象,synchronized 要锁不变的值, 所以要将 Long 类型的 userId 通过 toString() 方法转成 String
类型的 userId, toString底层是直接 new 一个新的 String 对象,还是在变, 所以要用 intern()
方法从常量池中寻找与当前字符串值一致的字符串对象, 这样就能保障一个用户发送多次请求,每次请求的 userId 都是不变的,从而完成锁的效果。
要锁整个事务,而不是锁事务内部的代码。如果我们锁住事务内部的代码会导致其它线程能够进入事务,当我们事务还未提交,锁一旦释放,仍然会存在超卖问题。
Spring 的 @Transactional
注解要想事务生效,必须使用动态代理。在同一个类中,一个方法调用另外一个有注解(比如@Async,@Transational)的方法,注解是不会生效的,所以我们需要创建一个代理对象,使用代理对象来调用方法。
spring 在扫描bean的时候会扫描方法上是否包含@Transactional注解,如果包含,spring会为这个bean动态地生成一个子类(即代理类,proxy),代理类是继承原来那个bean的。此时,当这个有注解的方法被调用的时候,实际上是由代理类来调用的,代理类在调用之前就会启动transaction。然而,如果这个有注解的方法是被同一个类中的其他方法调用的,那么该方法的调用并没有通过代理类,而是直接通过原来的那个bean,所以就不会启动transaction,我们看到的现象就是@Transactional注解无效。
让代理对象生效的步骤:
<dependency>
<groupId>org.aspectjgroupId>
<artifactId>aspectjweaverartifactId>
dependency>
@EnableAspectJAutoProxy(exposeProxy = true)
对于集群下一人一单的并发安全问题,由于每个tomcat 都有一个属于自己的 jvm,此时这个synchronized锁会失效,synchronized是本地锁,只能提供线程级别的同步,每个JVM中都有一把synchronized锁,不能跨 JVM 进行上锁,当一个线程进入被 synchronized 关键字修饰的方法或代码块时,它会尝试获取对象的内置锁(也称为监视器锁)。如果该锁没有被其他线程占用,则当前线程获得锁,可以继续执行代码;否则,当前线程将进入阻塞状态,直到获取到锁为止。而现在我们是创建了两个节点,也就意味着有两个JVM,所以synchronized会失效! 原文链接
try…finally…确保发生异常时锁能够释放,注意这给地方不要使用catch,A事务方法内部调用B事务方法,A事务方法不能够直接catch,否则会导致事务失效。
// 3、创建订单(使用分布式锁)
Long userId = ThreadLocalUtls.getUser().getId();
SimpleRedisLock lock = new SimpleRedisLock(stringRedisTemplate, "order:" + userId);
boolean isLock = lock.tryLock(1200);
if (!isLock) {
// 索取锁失败,重试或者直接抛异常(这个业务是一人一单,所以直接返回失败信息)
return Result.fail("一人只能下一单");
}
try {
// 索取锁成功,创建代理对象,使用代理对象调用第三方事务方法, 防止事务失效
IVoucherOrderService proxy = (IVoucherOrderService) AopContext.currentProxy();
return proxy.createVoucherOrder(userId, voucherId);
} finally {
lock.unlock();
}
multiLock
,多个独立的 Redis 节点, 必须在所有节点都获取重入锁,才算获取锁成功遇到自增 ID 问题,通过实现分布式ID解决了问题;后面我们在单体系统下遇到了一人多单超卖问题,我们通过乐观锁解决了;我们对业务进行了变更,将一人多单变成了一人一单,结果在高并发场景下同一用户发送相同请求仍然出现了超卖问题,我们通过悲观锁解决了;由于用户量的激增,我们将单体系统升级成了集群,结果由于锁只能在一个JVM中可见导致又出现了,在高并发场景下同一用户发送下单请求出现超卖问题,我们通过实现分布式锁成功解决集群下的超卖问题;由于我们最开始实现的分布式锁比较简单,会出现超时释放导致超卖问题,我们通过给锁添加线程标识成功解决了;但是释放锁时,判断锁是否是当前线程 和 删除锁两个操作不是原子性的,可能导致超卖问题,我们通过将两个操作封装到一个Lua脚本成功解决了;为了解决锁的不可重入性,我们通过将锁以hash结构的形式存储,每次释放锁都value-1,获取锁value+1,从而实现锁的可重入性,并且将释放锁和获取锁的操作封装到Lua脚本中以确保原子性。最最后,我们发现可以直接使用现有比较成熟的方案Redisson来解决上诉出现的所有问题,不可重试、不可重入、超时释放、原子性等问题Redisson都提供相对应的解决方法。
原文链接
搭建集群环境时,修改 Nginx 配置后要重启。 nginx.exe -s reload