在博客几乎没有torch.mean()三维维度如何计算的介绍,发布这篇文章记录一下。
torch.mean(input,dim=x)
dim 指定为0时,求得是列的平均值;指定为1时,求得是行的平均值.
- # 二维
- a = torch.arange(6) * 1.
- b = a.reshape(2, 3)
- print(b.shape)
- print(b)
- print(b.mean(dim=0).shape)
- print(b.mean(dim=0))
- print(b.mean(dim=1).shape)
- print(b.mean(dim=1))
计算结果如下:
torch.Size([2, 3])
tensor([[0., 1., 2.],
[3., 4., 5.]])
torch.Size([3])
tensor([1.5000, 2.5000, 3.5000])
torch.Size([2])
tensor([1., 4.])
tip:二维很好理解,dim不同分别是按照行或者列求平均数
为了较好的理解三维的计算,选择(2,3,2)这个维度较小但是能够明显有助于区分理解的三维向量。
- # 三维
- a = torch.arange(12) * 1.
- b = a.reshape(2, 3, 2)
- print(type(b))
- print(b)
- print(b.mean(dim=0).shape)
- print(b.mean(dim=0))
- print("[[0+6/2,1+7/2],[2+8/2,3+9/2],[4+10/2,5+11/2]]") # 计算方法
- print(b.mean(dim=1).shape)
- print(b.mean(dim=1))
- print("[[0+2+4/3,1+3+5/3],[6+8+10/3,7+9+11/3]]") # 计算方法
计算结果如下:
<class 'torch.Tensor'>
tensor([[[ 0., 1.],
[ 2., 3.],
[ 4., 5.]],
[[ 6., 7.],
[ 8., 9.],
[10., 11.]]])
torch.Size([3, 2])
tensor([[3., 4.],
[5., 6.],
[7., 8.]])
[[0+6/2,1+7/2],[2+8/2,3+9/2],[4+10/2,5+11/2]]
torch.Size([2, 2])
tensor([[2., 3.],
[8., 9.]])
[[0+2+4/3,1+3+5/3],[6+8+10/3,7+9+11/3]]
tip:下面说一说在实际应用中dim=1这种计算方式的理解。
一个三维向量,[2,3,2] 可以理解为有两行字符串,每行3个文字,每个文字的字向量维度为3的数字表示。
b.mean(dim=1) 的意义是将每行字符串中、每个字的相同维度的字向量求平均。