method_code.init.code.co_argcount:获取method_code.init 函数的输入变量的数目;
input_params = method_code.init.code.co_varnames:获取method_code.init 函数的输入变量的名称列表;
__enter__和__exit__魔法函数的工作原理:以上面with as 的形式,那么首先是进入类函数中__enter__魔法函数,__enter__魔法函数返回结果赋值给as后面的变量,当with as 语句结束时,会自动调用__exit__魔法函数
dict(class.dict): 将类class对象化成字典
fc = nn.Sequential(),fc.add_module(‘bn-{}’.format(0), nn.BatchNorm2d(head_conv))
self.setattr(key, value):设置属性
torch.compile():torch.compile 是加速 PyTorch 代码的最新方法! torch.compile 通过 JIT 将 PyTorch 代码编译成优化的内核,使 PyTorch 代码运行得更快,大部分过程仅需修改一行代码。
torch.autograd.set_detect_anomaly:在深度学习中,自动微分是训练神经网络的关键技术之一。PyTorch作为一个广泛使用的深度学习框架,提供了强大的自动微分功能。然而,在处理复杂的模型或计算图时,可能会出现梯度计算错误或其他异常。为了帮助调试这些问题,PyTorch提供了torch.autograd.set_detect_anomaly(True)函数,用于启用自动微分异常检测。