码农知识堂 - 1000bd
  •   Python
  •   PHP
  •   JS/TS
  •   JAVA
  •   C/C++
  •   C#
  •   GO
  •   Kotlin
  •   Swift
  • PyTorch中的动态学习率


    目录

    • 一、使用 `lr_scheduler`
    • 二、手动调整
    • References

    PyTorch有两种动态调整学习率的方法,一种是使用PyTorch自带的 lr_scheduler,另一种是手动调整,可定制性更强。

    一、使用 lr_scheduler

    一个可能的例子:

    import torch
    import torch.nn as nn
    from torch.optim import lr_scheduler
    
    dataset = ...  # 数据集
    model = ...  # 模型
    optimizer = torch.optim.SGD(model.parameters(), lr=0.1)  # 优化器
    critertion = nn.CrossEntropyLoss()  # 损失函数
    scheduler = lr_scheduler.ExponentialLR(optimizer, gamma=0.9)  # 学习率调度器
    
    for epoch in range(20):
        for inputs, target in dataset:
    		# 前向传播
            pred = model(inputs)
            loss = criterion(pred, target)
    		
    		# 反向传播
            optimizer.zero_grad()
            loss.backward()
            optimizer.step()
    
    	# 更新学习率
        scheduler.step()
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23

    注意,scheduler.step() 需要在每个epoch结束后调用,且必须在 optimizer.step() 后调用。

    更一般的模板:

    for epoch in range(NUM_EPOCHS):
        train(...)  # 训练
        validate(...)  # 验证
        scheduler.step()  # 更新学习率
    
    • 1
    • 2
    • 3
    • 4

    二、手动调整

    有些时候我们需要手动调整学习率,例如Transformer的学习率定义如下

    lr = d model − 0.5 ⋅ min ⁡ ( s t e p _ n u m − 0.5 , s t e p _ n u m ⋅ w a r m u p _ s t e p s − 1.5 ) \text{lr}=d_{\text{model}}^{-0.5}\cdot \min(step\_num^{-0.5},step\_num\cdot warmup\_steps^{-1.5}) lr=dmodel−0.5​⋅min(step_num−0.5,step_num⋅warmup_steps−1.5)

    实现如下

    class TransformerLR:
        def __init__(self, optimizer, d_model, warmup_steps=4000):
            self.optimizer = optimizer
            self.d_model = d_model
            self.warmup_steps = warmup_steps
            self.num_step = 0
    
            self.step()
    
        def step(self):
            new_lr = self.d_model**(-0.5) * min(self.num_step**(-0.5), self.num_step * self.warmup_steps**(-1.5))
            for group in self.optimizer.param_groups:
                group['lr'] = new_lr
            self.num_step += 1
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14

    在定义优化器时,我们可以任意设置初始学习率(一般设为0),这是因为 TransformerLR 在实例化时会自动调用 step 方法对优化器的学习率进行更新。

    optimizer = torch.optim.Adam(model.parameters(), lr=0., betas=(0.9, 0.98), eps=1e-9)
    scheduler = TransformerLR(optimizer, d_model=512)
    
    • 1
    • 2

    References

    [1] https://pytorch.org/docs/stable/optim.html#how-to-adjust-learning-rate
    [2] https://www.ylkz.life/deeplearning/p10550146/
    [3] http://www.4k8k.xyz/article/qq_36102055/119321243

  • 相关阅读:
    postgresql安装配置和基本操作
    【软件测试】软件缺陷报告如何编写
    [附源码]java毕业设计游戏装备交易网站论文2022
    iOS代码混淆-从入门到放弃
    概率论与数据统计学习:随机变量(一)——知识总结与C语言案例实现
    vue中如何导出doc文档
    pom管理规范
    CopyOnWriteArrayList源码分析
    centos7搭建maven私服nexus
    以太坊路线图:合并之后 Rollup+分片是扩容关键
  • 原文地址:https://blog.csdn.net/raelum/article/details/126806175
  • 最新文章
  • 攻防演习之三天拿下官网站群
    数据安全治理学习——前期安全规划和安全管理体系建设
    企业安全 | 企业内一次钓鱼演练准备过程
    内网渗透测试 | Kerberos协议及其部分攻击手法
    0day的产生 | 不懂代码的"代码审计"
    安装scrcpy-client模块av模块异常,环境问题解决方案
    leetcode hot100【LeetCode 279. 完全平方数】java实现
    OpenWrt下安装Mosquitto
    AnatoMask论文汇总
    【AI日记】24.11.01 LangChain、openai api和github copilot
  • 热门文章
  • 十款代码表白小特效 一个比一个浪漫 赶紧收藏起来吧!!!
    奉劝各位学弟学妹们,该打造你的技术影响力了!
    五年了,我在 CSDN 的两个一百万。
    Java俄罗斯方块,老程序员花了一个周末,连接中学年代!
    面试官都震惊,你这网络基础可以啊!
    你真的会用百度吗?我不信 — 那些不为人知的搜索引擎语法
    心情不好的时候,用 Python 画棵樱花树送给自己吧
    通宵一晚做出来的一款类似CS的第一人称射击游戏Demo!原来做游戏也不是很难,连憨憨学妹都学会了!
    13 万字 C 语言从入门到精通保姆级教程2021 年版
    10行代码集2000张美女图,Python爬虫120例,再上征途
Copyright © 2022 侵权请联系2656653265@qq.com    京ICP备2022015340号-1
正则表达式工具 cron表达式工具 密码生成工具

京公网安备 11010502049817号