• pytorch初学笔记(十四):损失函数


     目录

    一、损失函数 

    1.1 L1损失函数

    1.1.1 简介

    1.1.2 参数设定

    1.1.3 代码实现

    1.2 MSE损失函数(平方和)

    1.2.1 简介

    1.2.2 参数介绍

    1.2.3 代码实现

    1.3 损失函数的作用

    二、在神经网络中使用loss function

    2.1 使用交叉熵损失函数 

    2.2 反向传播


    一、损失函数 

    torch.nn — PyTorch 1.13 documentation

    每一个样本经过模型后会得到一个预测值,然后得到的预测值和真实值的差值就成为损失(当然损失值越小证明模型越是成功),我们知道有许多不同种类的损失函数,这些函数本质上就是计算预测值和真实值的差距的一类型函数,然后经过库(如pytorch,tensorflow等)的封装形成了有具体名字的函数。

    1.1 L1损失函数

    1.1.1 简介

    L1损失函数: 基于逐像素比较差异,然后取绝对值。

    在这里插入图片描述 

    1.1.2 参数设定 

    L1Loss — PyTorch 1.13 documentation

     CLASS torch.nn.L1Loss(size_average=Nonereduce=Nonereduction='mean')

     

    我们一般设定reduction的值来显示平均值或者和。

     参数设定:

    reduction可取的值: 'none' | 'mean' | 'sum'

    • 'none': no reduction will be applied
    •  'mean': the sum of the output will be divided by the number of elements in the output,求的是平均值,即各个差求和之后除以总数。

    •  'sum': the output will be summed. Note: size_average and reduce are in the process of being deprecated, and in the meantime, specifying either of those two args will override reduction.只求和,不除总数。

    • Default: 'mean'

    1.1.3 代码实现

     设置reduction的值为默认值和sum,观察区别。

    1. import torch
    2. from torch.nn import L1Loss
    3. inputs = torch.tensor([1,2,3],dtype=torch.float32)
    4. targets = torch.tensor([1,2,5],dtype=torch.float32)
    5. inputs = torch.reshape(inputs,(1,1,1,3))
    6. targets = torch.reshape(targets,(1,1,1,3))
    7. loss1 = L1Loss()
    8. result1 = loss1(inputs,targets)
    9. print(result1)
    10. loss2 = L1Loss(reduction="sum")
    11. result2 = loss2(inputs,targets)
    12. print(result2)
    • 当取值为默认值mean时,求的是平均值,sum=(1-1+2-2+5-3)=2, n=3, result = sum/n=0.6667 
    • 当取值为sum时,求的是和,即result=2

     

    1.2 MSE损失函数(平方和)

    1.2.1 简介

    均方误差(Mean Square Error,MSE)是回归损失函数中最常用的误差,它是预测值f(x)与目标值y之间差值平方和的均值,其公式如下所示:
    在这里插入图片描述 

     

    1.2.2 参数介绍

    MSELoss — PyTorch 1.13 documentation

     

    与上面的L1损失函数一样,我们可以改变reduction的值来进行对应数值的输出。

     

    1.2.3 代码实现

    1. import torch
    2. from torch.nn import L1Loss, MSELoss
    3. inputs = torch.tensor([1,2,3],dtype=torch.float32)
    4. targets = torch.tensor([1,2,5],dtype=torch.float32)
    5. inputs = torch.reshape(inputs,(1,1,1,3))
    6. targets = torch.reshape(targets,(1,1,1,3))
    7. loss_mse1 = MSELoss()
    8. result1 = loss_mse1(inputs,targets)
    9. print(result1)
    10. loss_mse2 = MSELoss(reduction="sum")
    11. result2 = loss_mse2(inputs,targets)
    12. print(result2)

     可以看到reduction设置不同的值对应的输出也不同。

     

    1.3 损失函数的作用

    1. 计算实际输出和目标之间的差距
    2. 为更新输出(反向传播)提供一定的依据

    二、在神经网络中使用loss function

    2.1 使用交叉熵损失函数 

    使用上次定义的神经网络和CIFAR10数据集进行图像分类,分类问题使用交叉熵损失函数。

    1. import torch.nn
    2. from torch import nn
    3. import torchvision.datasets
    4. from torch.nn import Conv2d, MaxPool2d, Flatten, Linear, Sequential
    5. from torch.utils.data import DataLoader
    6. from torch.utils.tensorboard import SummaryWriter
    7. dataset = torchvision.datasets.CIFAR10(root="./CIFAR10",train=False,transform=torchvision.transforms.ToTensor(),download=True)
    8. dataloader = DataLoader(dataset,batch_size=1)
    9. class Maweiyi(torch.nn.Module):
    10. def __init__(self):
    11. super(Maweiyi, self).__init__()
    12. self.model1 = Sequential(
    13. Conv2d(in_channels=3, out_channels=32, kernel_size=5, padding=2),
    14. MaxPool2d(kernel_size=2),
    15. Conv2d(in_channels=32, out_channels=32, kernel_size=5, padding=2),
    16. MaxPool2d(kernel_size=2),
    17. Conv2d(in_channels=32, out_channels=64, kernel_size=5, padding=2),
    18. MaxPool2d(kernel_size=2),
    19. Flatten(),
    20. Linear(in_features=1024, out_features=64),
    21. Linear(in_features=64, out_features=10)
    22. )
    23. def forward(self, x):
    24. x = self.model1(x)
    25. return x
    26. maweiyi = Maweiyi()
    27. # 使用交叉熵损失函数
    28. loss_cross = nn.CrossEntropyLoss()
    29. for data in dataloader:
    30. imgs,labels = data
    31. outputs = maweiyi(imgs)
    32. results = loss_cross(outputs,labels)
    33. print(results)

    可以看到使用loss function计算出了在神经网路中预测的output和真实值labels之间的差距大小。 

     

    2.2 反向传播

    results_loss.backward() 

      

  • 相关阅读:
    Android学习笔记 1.4 Android常用开发工具的用法
    SkeyeGisMap地图扩展(三) 自定义事件
    腾讯员工被曝偷看创业公司工作文档;iOS 15.4.1修复耗电过快问题;Spring承认RCE大漏洞|极客头条
    ssrf漏洞基础
    【C语言】找到数组中消失的数字(附赠冒泡排序,删除重复元素)
    详解.NET依赖注入中对象的创建与“销毁”
    python rb读取文件 base64加密 byte.decode解密,base64解密
    三、鼎捷T100 APS版本维护
    设计模式-05建造者模式(Bulider模式)详解
    基于Labview的图像傅里叶变换研究-含Labview程序
  • 原文地址:https://blog.csdn.net/weixin_45662399/article/details/128108725