本节课从损失函数的角度来说明为什么支持向量机被看做大间距分类器,一句话来说就是用最大间距将样本区分开。

支持向量机的损失函数

cost1(Z)和cost0(Z)的图像
如上所示是支持向量机的损失函数当y=1和y=0时,不同类别的损失函数的变化情况。那么我们构建支持向量机的模型(这里先理解为分割超平面,也就是Z)的时候,我们的唯一的要求就是让损失函数变到最低,最低是多少?当然是0。
也就是说虽然一个y=1的样本,当z(θ转秩x)>0时我们就可以认为模型将其分类正确,而一个y=0的样本,当z<0时我们也可以认为它分类正确。但是从损失函数的角度来说,这是远远不够的。我们可以看上面损失函数的图像,我们可以看到y=1的样本时只有z≥1损失函数才是0,同理y=0的样本时只有z≤-1损失函数才是0,我们在构建模型的时候,什么才是好模型呢?不就是想让损失变得最低吗?
所以当我们训练出分割超平面(Z)的时候,我们不能让训练集中的正样本带入超平面函数只是大于0&