这几天用图神经网络训练MNist分类,最开始测试精度只有0.11。。。
其实就算loss不下降,一开始的精度也不该这么低,emmm该想到肯定是我代码写错了,就是太自信太简单了,没有一行一行看
1.修改了优化器有说SGD不会下降不如Adam,
2.改了网络怕过拟合,减少参数和网络层数
3.查看数据特征
4.查看图片标签和图片是否匹配
5.数据归一化
6.使用BN层或者dropout
7.数据经过网络输出后不用sig等等
始终如一0.14最高不得了了
我就发现loss一直没下降
最后摆烂了几天,某个中午,我发现确实是:
解决,收工
最后提一句,上面第一条有作用的,SGD改成Adam精度确实会下降少,,,我换了后发现变化了0.89——》0.78,还是Adam香