• Pytorch网络层参数初始化方法


    常用的参数初始化方法

    方法(均省略前缀 torch.nn.init.)    功能
    uniform_(tensor, a=0.0, b=1.0) 从均匀分布 U(a,b) 中生成值,填充输入的张量
    normal_(tensor, mean=0.0, std=1.0)从给定均值 mean 和标准差 std 的正态分布中生成值,填充输入的张量
    constant_(tensor, val) 用 val 的值填充输入的张量
    ones_(tensor) 用 1 填充输入的张量
    zeros_(tensor)用 0 填充输入的张量
    eye_(tensor)用单位矩阵填充输入的二维张量
    dirac_(tensor, groups=1)用 Dirac delta 函数来填充 {3,4,5} 维输入张量。在卷积层中尽可能多地保存输入通道特性
    xavier_uniform_(tensor, gain=1.0)使用 Glorot initialization 方法均匀分布生成值,生成随机数填充张量
    xavier_normal_(tensor, gain=1.0) 使用 Glorot initialization 方法正态分布生成值,生成随机数填充张量
    kaiming_uniform_(tensor, a=0, mode=‘fan_in’, nonlinearity=‘leaky_relu’)使用 He initialization 方法均匀分布生成值,生成随机数填充张量
    kaiming_normal_(tensor, a=0, mode=‘fan_in’, nonlinearity=‘leaky_relu’) 使用 He initialization 方法正态分布生成值,生成随机数填充张量
    orthogonal_(tensor, gain=1) 使用正交矩阵填充张量进行初始化


    针对某一层的权重初始化
    以卷积层为例:绘制权重默认的分布
     

    1. import os # 不加会报错 Initializing libiomp5md.dll, but found libiomp5md.dll already initialized
    2. os.environ["KMP_DUPLICATE_LIB_OK"] = "TRUE"
    3. import torch
    4. import torch.nn as nn
    5. import matplotlib.pyplot as plt
    6. import numpy as np
    7. conv = nn.Conv2d(3, 16, 3, 2)
    8. # 绘制权重分布图
    9. plt.hist(conv.weight.data.numpy().reshape(-1, 1), bins=30)
    10. plt.show()


    对权重设置初始化

     

    1. import os
    2. os.environ["KMP_DUPLICATE_LIB_OK"] = "TRUE"
    3. import torch
    4. import torch.nn as nn
    5. import matplotlib.pyplot as plt
    6. import numpy as np
    7. conv = nn.Conv2d(3, 16, 3, 2)
    8. # 为 conv 层的权重设置均值为0,标准差为1的正态分布初始化
    9. nn.init.normal_(conv.weight, mean=0, std=1)
    10. # 绘制权重分布图
    11. plt.hist(conv.weight.data.numpy().reshape(-1, 1), bins=30)
    12. plt.show()


    对偏置设置初始化
     

    1. import os
    2. os.environ["KMP_DUPLICATE_LIB_OK"] = "TRUE"
    3. import torch
    4. import torch.nn as nn
    5. import matplotlib.pyplot as plt
    6. import numpy as np
    7. conv = nn.Conv2d(3, 16, 3, 2)
    8. # 为 conv 层的偏置设置全1初始化
    9. nn.init.constant_(conv.bias, 1)
    10. # 绘制偏置分布
    11. plt.plot(conv.bias.data.numpy().reshape(-1, 1))
    12. plt.show()


    针对整个模型的权重初始化
    先任意定义一个网络

    1. import os
    2. os.environ["KMP_DUPLICATE_LIB_OK"] = "TRUE"
    3. import torch
    4. import torch.nn as nn
    5. class LeNet(nn.Module):
    6.     def __init__(self):
    7.         super(LeNet, self).__init__()
    8.         self.features = nn.Sequential(
    9.             nn.Conv2d(1, 128, 5, 1),
    10.             nn.ReLU(True),
    11.             nn.MaxPool2d(2, 2),
    12.             nn.Conv2d(128, 128, 5, 1),
    13.             nn.ReLU(True),
    14.             nn.MaxPool2d(2, 2),
    15.             nn.Conv2d(128, 128, 5, 1),
    16.             nn.ReLU(True),
    17.         )
    18.         self.classifer = nn.Sequential(
    19.             nn.Flatten(),
    20.             nn.Linear(128, 84),
    21.             nn.ReLU(True),
    22.             nn.Dropout(0.1),
    23.             nn.Linear(84, 10),
    24.             nn.Softmax(-1)
    25.         )
    26.     def forward(self, x):
    27.         x = nn.ZeroPad2d((2, 2, 2, 2))(x)
    28.         x = self.features(x)
    29.         x = self.classifer(x)
    30.         return x
    31. model = LeNet()
    32. print(model)
    1. LeNet(
    2.   (features): Sequential(
    3.     (0): Conv2d(1, 128, kernel_size=(5, 5), stride=(1, 1))
    4.     (1): ReLU(inplace=True)
    5.     (2): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False)
    6.     (3): Conv2d(128, 128, kernel_size=(5, 5), stride=(1, 1))
    7.     (4): ReLU(inplace=True)
    8.     (5): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False)
    9.     (6): Conv2d(128, 128, kernel_size=(5, 5), stride=(1, 1))
    10.     (7): ReLU(inplace=True)
    11.   )
    12.   (classifer): Sequential(
    13.     (0): Flatten(start_dim=1, end_dim=-1)
    14.     (1): Linear(in_features=128, out_features=84, bias=True)
    15.     (2): ReLU(inplace=True)
    16.     (3): Dropout(p=0.1, inplace=False)
    17.     (4): Linear(in_features=84, out_features=10, bias=True)
    18.     (5): Softmax(dim=-1)
    19.   )
    20. )


    针对不同类型的层,可以采用不同的初始化方法。
    只需定义一个函数。

    1. def init_weights(layer):
    2.     # 如果为卷积层,使用正态分布初始化
    3.     if type(layer) == nn.Conv2d:
    4.         nn.init.normal_(layer.weight, mean=0, std=0.5)
    5.     # 如果为全连接层,权重使用均匀分布初始化,偏置初始化为0.1
    6.     elif type(layer) == nn.Linear:
    7.         nn.init.uniform_(layer.weight, a=-0.1, b=0.1)
    8.         nn.init.constant_(layer.bias, 0.1)
    9. 对网络进行参数初始化
    10. # 只需要使用apply函数即可
    11. # torch.manual_seed(2021) # 设置随机种子
    12. model.apply(init_weights)

  • 相关阅读:
    java一体化智慧工地信息管理平台源码 智慧工地APP源码
    一次有趣的 DNS 导致 Node 服务故障问题分析实录
    软件测试面试遇到之redis要怎么测试?
    Kotlin笔记(六):泛型的高级特性
    JAVA日期时间API
    基于区块链的协作流程数据共享与访问控制
    vue3---props验证
    推荐一款好用的日期控件jeDate
    高通sensor理解
    多测师肖sir_高级金牌讲师_python的安装002
  • 原文地址:https://blog.csdn.net/daodaipsrensheng/article/details/125618424