码农知识堂 - 1000bd
  •   Python
  •   PHP
  •   JS/TS
  •   JAVA
  •   C/C++
  •   C#
  •   GO
  •   Kotlin
  •   Swift
  • pytorch异常——loss异常,不断增大,并且loss出现inf


    文章目录

      • 异常报错
      • 异常截图
      • 异常代码
      • 原因解释
      • 修正代码
      • 执行结果

    异常报错

    epoch1:loss3667.782471
    epoch2:loss65358620.000000
    epoch3:loss14979486720.000000
    epoch4:loss1739650891776.000000
    epoch5:loss12361745880317952.000000
    epoch6:loss2740315398365287284736.000000
    epoch7:loss1176857261847129541794856960.000000
    epoch8:loss7211548287231028836649926656.000000
    epoch9:loss7537356298471407320145204346880.000000
    epoch10:lossinf
    
    
    
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13

    异常截图

    异常代码

    # 初始化模型的参数,使用正态分布来初始化权重参数,将偏置设置为0
    net[0].weight.data.normal_(0,0.01)
    net[0].bias.data.fill_(0)
    
    # 定义损失函数
    loss = nn.MSELoss()
    
    
    # 定义优化算法
    trainer = torch.optim.SGD(net.parameters(),lr = 0.03)
    
    # 训练
    # 训练过程:遍历完整的数据集,每一次都是抽取一个batch_size,然后在进行前向传播计算对应的loss,然后将loss反向传播,计算梯度,然后根据梯度优化参数
    num_epochs = 10
    for epoch in range(num_epochs):
        for X,y in data_iter:
            l = loss(net(X),y)
            l.backward()
            trainer.step()
        l = loss(net(features),labels)
        print(f'epoch{epoch+1}:loss{l:f}')
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21

    原因解释

    • 每一个batch_size之后,都没有进行梯度清零,模型参数更新是基于之前所有的mini_batch,并不是基于当前的mini_batch

    • 导致如下问题

      • 梯度爆炸:如果梯度值在每次迭代中都相对较大,那么累积梯度可能会迅速变得非常大,导致权重更新太过极端。这通常会导致损失值变成 NaN 或 Inf
      • 训练不稳定:如果梯度值在每次迭代中都相对较大,那么累积梯度可能会迅速变得非常大,导致权重更新太过极端。这通常会导致损失值变成 NaN 或 Inf
    • 梯度下降的基本假设:

      • 每次更新都是基于最近一次计算出的梯度,

    修正代码

    # 初始化模型的参数,使用正态分布来初始化权重参数,将偏置设置为0
    net[0].weight.data.normal_(0,0.01)
    net[0].bias.data.fill_(0)
    
    # 定义损失函数
    loss = nn.MSELoss()
    
    
    # 定义优化算法
    trainer = torch.optim.SGD(net.parameters(),lr = 0.03)
    
    # 训练
    # 训练过程:遍历完整的数据集,每一次都是抽取一个batch_size,然后在进行前向传播计算对应的loss,然后将loss反向传播,计算梯度,然后根据梯度优化参数
    num_epochs = 10
    for epoch in range(num_epochs):
        for X,y in data_iter:
            l = loss(net(X),y)
            trainer.zero_grad()
            l.backward()
            trainer.step()
        l = loss(net(features),labels)
        print(f'epoch{epoch+1}:loss{l:f}')
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22

    执行结果

    在这里插入图片描述

  • 相关阅读:
    LeetCode--580. 统计各专业学生人数
    【ModelArts】【训练作业】请问ModealArts平台进行训练时是否自动采用混合精度
    easyx库的学习(鼠标信息)
    技术类公司与业务类公司转型科技智能公司的异同
    数字IC前端学习笔记:数字乘法器的优化设计(进位保留乘法器)
    秋招失足,拿到这份“Java 高分指南(25 专题)”,金三银四翻盘有望
    专业运动耳机哪个品牌好?运动蓝牙耳机推荐
    [论文评析]人体脉搏波速与血压之间关系探索新突破
    2.20日学习打卡----初学Vue3
    强大的JTAG边界扫描(1):基本原理介绍
  • 原文地址:https://blog.csdn.net/Blackoutdragon/article/details/132591256
  • 最新文章
  • 攻防演习之三天拿下官网站群
    数据安全治理学习——前期安全规划和安全管理体系建设
    企业安全 | 企业内一次钓鱼演练准备过程
    内网渗透测试 | Kerberos协议及其部分攻击手法
    0day的产生 | 不懂代码的"代码审计"
    安装scrcpy-client模块av模块异常,环境问题解决方案
    leetcode hot100【LeetCode 279. 完全平方数】java实现
    OpenWrt下安装Mosquitto
    AnatoMask论文汇总
    【AI日记】24.11.01 LangChain、openai api和github copilot
  • 热门文章
  • 十款代码表白小特效 一个比一个浪漫 赶紧收藏起来吧!!!
    奉劝各位学弟学妹们,该打造你的技术影响力了!
    五年了,我在 CSDN 的两个一百万。
    Java俄罗斯方块,老程序员花了一个周末,连接中学年代!
    面试官都震惊,你这网络基础可以啊!
    你真的会用百度吗?我不信 — 那些不为人知的搜索引擎语法
    心情不好的时候,用 Python 画棵樱花树送给自己吧
    通宵一晚做出来的一款类似CS的第一人称射击游戏Demo!原来做游戏也不是很难,连憨憨学妹都学会了!
    13 万字 C 语言从入门到精通保姆级教程2021 年版
    10行代码集2000张美女图,Python爬虫120例,再上征途
Copyright © 2022 侵权请联系2656653265@qq.com    京ICP备2022015340号-1
正则表达式工具 cron表达式工具 密码生成工具

京公网安备 11010502049817号