scaler.scale(loss) 将loss放大model.backward 梯度反传scaler.unscale_(optimizer) 将grad还原_clip_gradients梯度裁剪scaler.step(optimizer) 如果发现nan梯度,则optimizer跳过scaler.update() 更新缩放器也可以参考
https://lightning.ai/docs/pytorch/stable/common/lightning_module.html#hooks