交叉熵误差(cross entropy error)如下式:
E
=
−
∑
k
t
k
log
y
k
E=-\sum_{k}^{} t_k\log_{}{y_k}
E=−k∑tklogyk
y
k
y_k
yk是神经网络的输出,
t
k
t_k
tk是正确解标签,该式计算了正确解标签输出的自然对数,也就是说,交叉熵误差的值是由正确解标签所对应的输出结果决定的。
用代码实现:
def cross_entropy_error(y, t):
delta = 1e-7
return -np.sum(t * np.log(y + delta))
参数
y
y
y和
t
t
t是NumPy数组。
加上微小值
d
e
l
t
a
delta
delta,防止np.log(0)变为负无限大导致后续计算无法进行。
求所有训练数据的损失函数的总和,可写成下式:
E
=
−
1
N
∑
n
∑
k
t
n
k
log
y
n
k
E=-\frac{1}{N} \sum_{n}^{} \sum_{k}^{} t_{nk}\log_{}{y_{nk}}
E=−N1n∑k∑tnklogynk
通过平均,可以获得和训练数据的数量无关的统一指标。
有时候以全部数据为对象计算损失函数是不现实的,因此可以从全部数据中选出一部分,作为全部数据的”近似“。
神经网络的学习也是从训练数据中选出一批数据(称为mini-batch,小批量),然后对每个mini-batch进行学习。
步骤1(mini-batch)
从训练数据中随机选出一部分数据,我们的目标是减小mini-batch的损失函数的值;
步骤2(计算梯度)
为了减少mini-batch的损失函数的值,需要求出各个权重参数的梯度;
梯度表示损失函数的值减小最多的方向。
步骤3(更新参数)
将权重参数沿梯度方向进行微小更新。
步骤4(重复)
重复步骤1、步骤2、步骤3。
这种方法叫做随机梯度下降法(stochastic gradient descent),即为对随机选择的数据进行的梯度下降法(随机选择的mini-batch数据)。