在训练中遇到了下图验证集损失先降后升,这是典型的过拟合,但是此时验证集精度却仍然在上升(直觉认为Loss上升变差应当精度下降变差),这种反直觉的现象引发了思考

首先说的比较详细的是这篇博客深度学习相关问题的记录:验证集loss上升,准确率却上升,其实原理也很简单,比如你的BatchSize=5,其中有1个错了,那么你的精度为80%,但是如果错了的这个输出非常离谱计算出来的Loss很大(比如[0.000001,0.2,0.33339,0.2,0.2]和[1,0,0,0,0]这个输出虽然错误了,但是根据0.00001和1计算出的Loss却会很大)(也就是数据集中存在hard case导致突变),那么5个Loss的均值Loss也就很大。反之如果有2个错了,但是输出和正确的差一丢丢,计算出来的Loss可能比较小,平均Loss也就比较小。所以可以看出Loss和精度并非强相关联系。而且如果你设计的Loss不同,那么更有可能出现或者避免这种现象。
综上,Loss只是指导模型优化的指标,而不是模型性能的指标,所以要看模型效果,到底怎么样:看精度不看Loss
对于Val Loss先降后升,其实就是针对过拟合的解决办法: