• 分类算法——支持向量机 详解


    支持向量机(Support Vector Machine, SVM)的底层原理

            支持向量机是一种用于分类和回归的强大机器学习算法,最常见的是用于二分类任务。SVM 的核心思想是通过找到一个最优超平面,将数据集划分成不同的类别。SVM 尤其擅长处理高维数据,且能在数据少的情况下提供较好的分类效果。

    1. SVM 的基本概念

    在 SVM 中,主要有几个核心概念:

    • 超平面(Hyperplane):在特征空间中划分数据的决策边界。对于二维数据来说,超平面是一条线;对于三维数据来说,超平面是一个平面。
    • 支持向量(Support Vector):离决策边界最近的样本点。支持向量是定义超平面位置和方向的关键数据点。
    • 间隔(Margin):支持向量与超平面之间的距离。SVM 通过最大化间隔来优化超平面,使得分类更具泛化能力。
    2. 线性可分的情况

            在数据线性可分的情况下,支持向量机旨在找到一个超平面来将不同类别的数据完全分开,且间隔最大化。对于一个线性可分的数据集,我们可以用以下决策函数来表示:

    f(x)=w*x+b

    其中,w 是法向量,b 是偏置。我们的目标是使得正负类样本点满足以下条件:

    y_{i}\left ( w*x_{i} + b \right ) \geqslant 1

    为了最大化间隔,我们要最小化 \left \| w \right \|,即解决以下优化问题:

    min\frac{1}{2}\left \| w \right \|^{2}

    同时满足约束条件:

    y_{i}\left ( w*x_{i} + b \right ) \geqslant 1,i=1, ...,N

            这个优化问题可以通过 拉格朗日乘子法 转化为对偶问题,并使用 SMO 算法或其它优化算法求解。

    3. 线性不可分的情况:软间隔与惩罚项

    在实际应用中,数据往往并非线性可分。为此,我们引入 软间隔(Soft Margin) 和 惩罚项,允许少量样本出现在错误的分类区域内。

    • 定义松弛变量 ξiξi​,表示每个样本点偏离其正确分类的程度。
    • 优化目标变为最小化 \left \| w \right \| 和 \sum_{i=1}^{N}\xi _{i} 的加权和。

    优化问题变为:

    其中,C 是惩罚系数,平衡间隔最大化与分类错误之间的关系。

    4. 核函数(Kernel Function)

            当数据在低维空间中不可分时,SVM 通过核函数将数据映射到更高维空间,在更高维度下寻找线性可分的超平面。常用的核函数包括:

    • 线性核:K(x,x′)=x⋅x′
    • 多项式核K(x,{x}')=\left ( x*{x}' + c \right )^{d}
    • 高斯核(RBF 核):K(x,x′)=exp⁡(-\gamma \left \| x-{x}' \right \|^{2})
    • Sigmoid 核:K(x,x′)=tanh⁡(αx⋅x′+c)

            核函数的作用是避免直接在高维空间中计算数据点的坐标,通过核技巧(Kernel Trick),可以在低维空间进行计算,降低计算复杂度

    5. SVM 的优化算法

            SVM 的优化问题通常会通过 拉格朗日对偶 转换为对偶问题,从而简化求解过程。对于大规模数据集,SMO(Sequential Minimal Optimization) 是常用的优化算法,其基本思想是每次只优化两个变量,使得复杂的约束条件转换为二元约束问题,从而高效求解。

    SVM 实现细节:Python 源码分析

            在 scikit-learn 中,SVM 算法使用 SVC(支持向量分类)类实现,以下是基于 scikit-learn 的 SVC 类的代码示例:

    1. from sklearn import datasets
    2. from sklearn.model_selection import train_test_split
    3. from sklearn.svm import SVC
    4. import matplotlib.pyplot as plt
    5. import numpy as np
    6. # 加载数据集
    7. iris = datasets.load_iris()
    8. X = iris.data[:, :2] # 只取两个特征方便可视化
    9. y = iris.target
    10. y = y[y != 2] # 仅使用两类样本进行二分类
    11. X = X[y != 2]
    12. # 划分数据集
    13. X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=42)
    14. # 构建 SVM 模型
    15. clf = SVC(kernel='linear', C=1.0)
    16. clf.fit(X_train, y_train)
    17. # 打印支持向量
    18. print("支持向量:", clf.support_vectors_)
    19. # 预测测试集
    20. y_pred = clf.predict(X_test)
    21. # 可视化决策边界
    22. def plot_decision_boundary(clf, X, y):
    23. x_min, x_max = X[:, 0].min() - 1, X[:, 0].max() + 1
    24. y_min, y_max = X[:, 1].min() - 1, X[:, 1].max() + 1
    25. xx, yy = np.meshgrid(np.arange(x_min, x_max, 0.01),
    26. np.arange(y_min, y_max, 0.01))
    27. Z = clf.predict(np.c_[xx.ravel(), yy.ravel()])
    28. Z = Z.reshape(xx.shape)
    29. plt.contourf(xx, yy, Z, alpha=0.8)
    30. plt.scatter(X[:, 0], X[:, 1], c=y, edgecolors='k', marker='o')
    31. plt.xlabel('Feature 1')
    32. plt.ylabel('Feature 2')
    33. plt.title('SVM Decision Boundary')
    34. plt.show()
    35. plot_decision_boundary(clf, X, y)

    源码分析

    scikit-learn 的 SVC 类是对 libsvm 的封装,核心参数和方法包括:

    • kernel:指定核函数类型,包括 'linear''poly''rbf''sigmoid' 等。
    • C:惩罚系数,控制软间隔的程度。
    • fit(X, y):训练模型。
    • predict(X):对测试数据进行分类预测。
    • support_vectors_:返回支持向量。

            在 fit 方法中,scikit-learn 会调用 libsvm 的训练接口,根据给定的数据和参数进行支持向量求解,通过 SMO 或其他优化算法找到最优解。

    SVM 的应用场景

            SVM 适用于高维数据集和样本量较小的数据集。在文本分类、人脸识别、生物信息学等领域,SVM 都得到了广泛应用。

    SVM 的优缺点

    优点:
    1. 分类效果好:适合高维数据,且对样本量少的数据有很好的分类效果。
    2. 高泛化能力:通过最大化间隔使得模型具有更强的泛化能力。
    3. 多样性:可通过不同的核函数应对非线性问题。
    缺点:
    1. 计算复杂度高:对于大规模数据集训练速度较慢,尤其是使用非线性核函数时。
    2. 对参数敏感:核函数类型、惩罚系数 C、核函数参数等对模型影响较大,需要通过调参找到最优组合。
    3. 解释性弱:相比于决策树等模型,SVM 的决策过程不易理解和解释。

    SVM 的总结

            SVM 是一种强大的分类算法,适用于高维和小样本数据。其主要思想是找到一个最优超平面,最大化不同类别数据的间隔。通过软间隔和核函数,SVM 可以处理线性不可分数据。优化算法主要使用 SMO 或对偶问题求解。虽然 SVM 在分类效果上表现出色,但训练复杂度较高,对参数敏感。

  • 相关阅读:
    面试官问我 “A + B” 算法,我懵了
    【.NET】简单使用Description特性
    git常用命令(patch补丁和解决冲突)
    MySQL性能优化-范式设计和反范式设计
    Python之函数详解
    Git常用命令
    【算法刷题日记之本手篇】统计每个月兔子的总数与字符串通配符
    阿里三面:什么是循环依赖?你说一下Spring解决循环依赖的流程
    降噪耳机哪款好用?主动降噪蓝牙耳机推荐
    分享一些可以提升生信分析效率的vscode插件
  • 原文地址:https://blog.csdn.net/goTsHgo/article/details/143386241