分类问题从回归的单输出变成了多输出,这个多输出的个数=类别的个数
置信度:置信度一词来自统计学,而统计学的本质是,用抽样的数据去估计整体的真实分布。例如,样本均值估计整体均值;还有,频率近似概率。而置信度的含义就是,你在用样本估计整体的时候,所得到的结论的“可信程度”,或者说,是对自己所的结论的一个量化的概率评价(打分)
正确类y的置信度oy要远远大于其他非正确类的oi,写成数学就是希望oy-oi要大于某一个阈值(oi是预测其他类的概率,oy是预测正确类的概率)
希望使得输出是一个概率,现在的输出是o1~on的向量,将softmax作用到o上看,得到一个长为n的向量y_hat,每个元素非负,且相加为1.
解释: 假设标签y将是一个三维向量, 其中(1,0,0)对应于“猫”、(0,1,0)对应于“鸡”、(0,0,1)对应于“狗”:
现在去预测一个样本,假设这个样本是鸡,也就是真实的概率是y=[0,1,0],而我们经过softmax预测之后得到的预测概率是y_hat= [0.1,0.8,0.1],那么:
损失函数l(y,y_hat) = -0* 0.1 - 1* 0.8 - 0* 0.1 = -1 * 0.8 , 得到的就是对于真实类别y预测得到的概率y_hat。因为真实样本向量中只有一个为1,其余为0,那么上图中的计算结果中的右下角的y就是表示,这个样本的真实类别y。
对于真实类别的预测值求log,再求负数,所以可以看出,对分类问题来讲,不关心对对于非正确类的预测值,我们只关心对于正确类的预测值,它的置信度要够大
下面对于如何得到梯度的过程进行展开:
最后,根据计算结果可以发现,梯度就等于预测概率和真实概率的差值。