• torch.mean()、tensor.mean() 用法及维度的理解(二维、三维)


     在博客几乎没有torch.mean()三维维度如何计算的介绍,发布这篇文章记录一下。


    torch.mean(input,dim=x)
    dim 指定为0时,求得是列的平均值;指定为1时,求得是行的平均值.
     

    1. # 二维
    2. a = torch.arange(6) * 1.
    3. b = a.reshape(2, 3)
    4. print(b.shape)
    5. print(b)
    6. print(b.mean(dim=0).shape)
    7. print(b.mean(dim=0))
    8. print(b.mean(dim=1).shape)
    9. print(b.mean(dim=1))

    计算结果如下:
    torch.Size([2, 3])
    tensor([[0., 1., 2.],
            [3., 4., 5.]])
    torch.Size([3])
    tensor([1.5000, 2.5000, 3.5000])
    torch.Size([2])
    tensor([1., 4.])

    tip:二维很好理解,dim不同分别是按照行或者列求平均数

    为了较好的理解三维的计算,选择(2,3,2)这个维度较小但是能够明显有助于区分理解的三维向量。

    1. # 三维
    2. a = torch.arange(12) * 1.
    3. b = a.reshape(2, 3, 2)
    4. print(type(b))
    5. print(b)
    6. print(b.mean(dim=0).shape)
    7. print(b.mean(dim=0))
    8. print("[[0+6/2,1+7/2],[2+8/2,3+9/2],[4+10/2,5+11/2]]") # 计算方法
    9. print(b.mean(dim=1).shape)
    10. print(b.mean(dim=1))
    11. print("[[0+2+4/3,1+3+5/3],[6+8+10/3,7+9+11/3]]") # 计算方法

     计算结果如下:

    <class 'torch.Tensor'>
    tensor([[[ 0.,  1.],
             [ 2.,  3.],
             [ 4.,  5.]],
    
            [[ 6.,  7.],
             [ 8.,  9.],
             [10., 11.]]])
    torch.Size([3, 2])
    tensor([[3., 4.],
            [5., 6.],
            [7., 8.]])
    [[0+6/2,1+7/2],[2+8/2,3+9/2],[4+10/2,5+11/2]]
    torch.Size([2, 2])
    tensor([[2., 3.],
            [8., 9.]])
    [[0+2+4/3,1+3+5/3],[6+8+10/3,7+9+11/3]]

    tip:下面说一说在实际应用中dim=1这种计算方式的理解。

    一个三维向量,[2,3,2] 可以理解为有两行字符串,每行3个文字,每个文字的字向量维度为3的数字表示。

    b.mean(dim=1) 的意义是将每行字符串中、每个字的相同维度的字向量求平均。

  • 相关阅读:
    html->课程表
    RIP动态路由协议详解
    使用kubeadm方式搭建Kubernetes集群
    Vmware tools安装(已解决VMware和win鼠标不能自由切换问题)
    house of storm+堆SROP+orw
    【微服务容器化】第一章-什么是Docker
    html常用标签
    R7-19 天梯赛团队总分
    51单片机DHT11温湿度控制系统仿真设计( proteus仿真+程序+原理图+报告+讲解视频)
    python 类的属性
  • 原文地址:https://blog.csdn.net/weixin_40592798/article/details/125428306