• pytorch 笔记:validation ,model.eval V.S torch.no_grad


    1 validation的一般框架

    模型为model,优化器为optimizer

    1. min_val_loss = np.inf
    2. for epoch in range(1, epochs + 1):
    3. ############################训练部分开始#############################
    4. model.train()
    5. train_losses = []
    6. for (batch_x, batch_y) in train_loader:
    7. output = model(batch_x)
    8. loss = criterion(output, batch_y)
    9. optimizer.zero_grad()
    10. loss.backward()
    11. optimizer.step()
    12. #pytorch 老三样
    13. ############################训练部分结束#############################
    14. ############################验证部分开始#############################
    15. model.eval()
    16. for (batch_x, batch_y) in val_loader:
    17. with torch.no_grad():
    18. output = model(batch_x)
    19. loss = criterion(output, batch_y)
    20. val_losses.append(loss.item())
    21. val_loss = np.mean(val_losses)
    22. if val_loss < min_val_loss:
    23. min_val_loss = val_loss
    24. torch.save(model.state_dict(), save_path)
    25. #保存最优模型
    26. ############################验证部分结束#############################

    test的时候,就可以加载这个最佳模型对应的参数(model.load_state_dict),进行测试

    2 model.eval() V,S with torch.no_grad()

    2.1 相同点

    在PyTorch中进行validation时,使用他们均可切换到测试模式。

    eg,对于dropout层和batchnorm层:

    • 在train模式下,dropout网络层会按照设定的参数p设置保留激活单元的概率(保留概率=p); batchnorm层会继续计算数据的mean和var等参数并更新。
    • 在val模式下,dropout层会让所有的激活单元都通过,而batchnorm层会停止计算和更新mean和var,直接使用在训练阶段已经学出的mean和var值。

    2.2 不同点

    • model.eval()仍然会涉及gradient的计算和存储,与training模式一样,只是不进行反向传播。
    • **with torch.zero_grad()**则停止autograd模块的工作,也就是停止gradient计算,以起到加速和节省显存的作用,从而节省了GPU算力和显存,但是并不会影响dropout和batchnorm层的行为。(这俩还是train模式下的样子)

    • ——>二者搭配使用

  • 相关阅读:
    Android红外功能模拟触摸鼠标事件唤醒屏幕
    第一节 Threejs 入门
    Python-VBA编程500例-033(入门级)
    Java入门笔记
    el-input无法输入的问题和表单验证失败问题(亲测有效)-开发bug总结4
    openresty ngx_lua请求响应
    python二级备考(2)-简单应用题
    软件项目移交运维计划
    网络编程 版本校验
    拉格朗日松弛求解问题
  • 原文地址:https://blog.csdn.net/qq_40206371/article/details/125530157