Python语法
- 整型数值和浮点数进行运算,整型数值会自动转换成浮点数类型,结果仍是浮点数类型。
- 内置函数:比较常用的一些“随身携带”的函数,不需要导入就能使用;
- 模块函数:封装好的工具包,导入相应的模块后才可以使用。
- round(n)四舍五入
- round(n, p)四舍五入,保留p位小数点
- math.floor(n)向下取整;math.ceil(n)向上取整
- math.log(n, base)以base为基,求n的对数
- random模块:
- random.random()产生[0, 1)之间的随机小数
- random.choice(...)从...中随机选取一个元素
- random.uniform(a, b)产生[a, b]中的随机小数,使用random.random()函数产生,之所以能取到b,是浮点数运算有时存在四舍五入现象。
- random.randint(a, b)产生[a, b]之间的随机整数
- random.randrange(start, stop=None, step=1)产生[start, stop)之间的随机整数,step可以指定随机数产生步长,默认为1。
Pytorch模型加载
Pytorch保存和加载模型(load和load_state_dict)_木盏的博客-CSDN博客_pytorch 加载模型Pytorch目前成为学术界最流行的DL框架,没有之一。很大程度上,简洁直观地操作有关。模型的保存和加载,于pytorch而言,也是很简单的。本文做了一个比较实验,方便大家理解。首先,要清楚几个函数:torch.save,torch.load,state_dict(),load_state_dict()。先举最简单的例子:import torchmodel = torch.load('my_model.pth')torch.save(model, 'new_model.pth')上面的代码非https://blog.csdn.net/leviopku/article/details/123925804搞清楚4个函数的用法即可:torch.load()、torch.save()、state_dict()、load_state_dict()
- torch.load()和torch.save()是torch模块中的两个函数,用于保存和加载模型/模型的参数;state_dict()和load_state_dict()是模型对象的两个方法,作用于model,用于提取或加载模型参数。
- torch.save()
- torch.save(model, 'xx.pth'), 保存了model的结构和参数,再次load时不需要先定义model的结构,直接model=torch.load('xx.pth')
- torch.save(model.state_dict(), 'xx.pth'), 先提取model的参数,再把model的参数保存在'xx.pth'中(不含模型结构信息)。再次加载时,需要先搭好model的框架,即定义model = ModelXx(),然后才能model.load_state_dict(torch.load('xx.pth'))。