目录
1 epoch
2 batch
3 batchsize
4 区别
1 epoch
当数据集中的全部数据样本通过神经网络一次并且返回一次的过程即完成一次训练称为一个epoch。
当我们分批学习时,每次使用过全部训练数据完成一次Forword运算以及一次BP运算,称为完成了一次epoch。
epoch时期 = 所有训练样本的一个正向传递和一个反向传递。
为什么要设置多个epoch?
因为在神经网络中传递完整的数据集一次是不够的,而且我们需要将完整的数据集在同样的神经网络中传递多次。我们使用的是有限的数据集,并且我们使用一个迭代过程即梯度下降,优化学习过程和图示。因此只更新权重一次或说使用一个 epoch 是不够的。
2 batch