• pytorch梯度累积


    梯度累加其实是为了变相扩大batch_size,用来解决显存受限问题。

    常规训练方式,每次从train_loader读取出一个batch的数据:

    1. for x,y in train_loader:
    2. pred = model(x)
    3. loss = criterion(pred, label)
    4. # 反向传播
    5. loss.backward()
    6. # 根据新的梯度更新网络参数
    7. optimizer.step()
    8. # 清空以往梯度,通过下面反向传播重新计算梯度
    9. optimizer.zero_grad()

            pytorch每次forward完都会得到一个用于梯度回传的计算图,pytorch构建的计算图是动态的,其实在每次backward后计算图都会从内存中释放掉,但是梯度不会清空的。所以若不显示的进行optimizer.zero_grad()清空过往梯度这一步操作,backward()的时候就会累加过往梯度。

    梯度累加的做法:

    1. accumulation_steps = 4
    2. for i,(x,y) in enumerate(train_loader):
    3. pred = model(x)
    4. loss = criterion(pred, label)
    5. # 相当于对累加后的梯度取平均
    6. loss = loss/accumulation_steps
    7. # 反向传播
    8. loss.backward()
    9. if (i+1) % accumulation_steps == 0:
    10. # 根据新的梯度更新网络参数
    11. optimizer.step()
    12. # 清空以往梯度,通过下面反向传播重新计算梯度
    13. optimizer.zero_grad()

            代码中设置accumulation_steps = 4,意思就是变相扩大batch_size四倍。因为代码中每隔4次迭代才清空梯度,更新参数。
            至于为啥loss = loss/accumulation_steps,因为梯度累加了四次呀,那就要取平均,除以4。那我每次loss取4,其实就相当于最后将累加后的梯度除4咯。同时,因为累计了4个batch,那学习率也应该扩大4倍,让更新的步子跨大点。

     看网上的帖子有讨论对BN层是否有影响,因为BN的估算阶段(计算batch内均值、方差)是在forward阶段完成的,那真实的batch_size放大4倍效果肯定是比通过梯度累加放大4倍效果好的,毕竟计算真实的大batch_size内的均值、方差肯定更精确。

     还有讨论说通过调低BN参数momentum可以得到更长序列的统计信息,应该意思是能够记忆更久远的统计信息(均值、方差),以逼近真实的扩大batch_size的效果。

    参考

    pytorch骚操作之梯度累加,变相增大batch size

  • 相关阅读:
    defer-promise 源码解析(Npm library)
    C高级文件相关指令
    【JVM】jvm的类加载机制
    快速幂的模板
    47. 从零开始学springboot: spel结合redisson实现动态参数分布式锁
    融云通信“三板斧”,“砍”到了银行的心坎上
    一款基于分布式文件存储的数据库MongoDB的介绍及基本使用教程
    Leetcode(665)——非递减数列
    docker Dockerfile
    Dubbo: 基于SpringBoot+Dubbo的Provider/Consumer的实践
  • 原文地址:https://blog.csdn.net/m0_45447650/article/details/136325018