• 《机器学习实战》6.支持向量机(SVM)


    目录

    1 基于最大间隔分隔数据

    2 寻找最大间隔

    2.1 分类器求解的优化问题

    2.2 SVM应用的一般流程

    3 SMO高效优化算法

    3.1 Platt的SMO算法

    3.2应用简化版SMO算法处理小规模数据集

    4 利用完整Platt SMO算法加速优化

     5 在复杂数据上应用核函数

    5.1 利用核函数将数据映射到高维空间

    5.2径向基核函数

    5.3 在测试中用到核函数

     6 手写识别问题回顾

     7 本章小结


    本章涉及到的向相关代码和数据

    SVM有很多种实现方法,但是这里学习最流行的一种,即序列最小化(SMO)算法。在此之后,将介绍如何使用一种称为核函数的方式奖SVM拓展到更多数据集上

    1 基于最大间隔分隔数据

    优点:泛化错误率低,计算开销不大,结果易解释  

    缺点:对参数调节喝核函数的选择敏感,原始分类器不加修饰仅适用于处理二类问题  

    适用数据类型:数值型数据与标称型数据  

    支持向量就是离分割超平面最近的那些点,然后找到最大化支持向量到分割面的距离,需要找到此问题的优化求解方法

    2 寻找最大间隔

    2.1 分类器求解的优化问题

    使用海维赛德阶跃函数来进行分类的计算

    为了找到分割最好的那一条线,我们在这里选择得到最大化支持向量的最大化间隔

    2.2 SVM应用的一般流程

    ①收集数据:可以使用任意方法  

    ②准备数据:需要数值型数据  

    ③分析数据:有助于可视化分隔超平面  

    ④训练算法:SVM的大部分时间都源于训练,该过程主要实现两个参数的调优  

    ⑤测试算法:十分简单的计算过程就可以实现  

    ⑥使用算法:几乎所有的分类问题都可以使用SVM,值得一提的是,SVM本身是一个二类分类器,对多类问题应用SVM需要对代码做出一些修改  

    3 SMO高效优化算法

    ①最小化的目标函数

    ②在优化过程中必须遵循约束条件

    3.1 Platt的SMO算法

    SMO表示序列最小化。PLatt的SMO算法是将大优化问题分解为多个小优化问题来求解。这些小优化问题往往很容易求解,并且对他们进行顺序求解的结果与将他们整体来求解的结果是完全一致的。在结果完全相同的条件下,SMO算法的求解时间就会短很多。  

    SMO算法的目标是求出一系列alpha和b,一旦求出了这些alpha,就很容易计算出权重向量w,并得到分割超平面。  

    SMO算法的工作原理为:每次循环中选择两个alpha进行优化处理。一旦找到一对合适的alpha,那么就增大其中一个同时减小另一个。这里所谓的合适就是指两个alpha必须要符合一定的条件,条件之一就是这两个alpha必须要在间隔边界之外,而这第二个条件则是这两个alpha还没有进行区间化处理或者不在边界上。

    3.2应用简化版SMO算法处理小规模数据集

    platt SMO的实现需要大量的代码。因此我们对算法进行简化处理,以便大致了解算法的基本工作思路,之后再基于简化版给出完整版。简化版虽然量少但执行速度慢。

    1. # SMO算法中的辅助函数
    2. # 打开文件并对其进行逐行分析,从而得到每行的类标签和整个数据矩阵
    3. def loadDataSet(fileName):
    4. dataMat=[]
    5. labelMat=[]
    6. fr=open(fileName)
    7. # 读取文件
    8. # 按行读取
    9. for line in fr.readlines():
    10. # 将每一行的数据进行分割
    11. lineArr=line.strip().split('\t')
    12. # 前两列为x,y值
    13. dataMat.append([float(lineArr[0]),float(lineArr[1])])
    14. # 第三列为标签值
    15. labelMat.append(float(lineArr[2]))
    16. # 返回数据集和标签集
    17. return dataMat,labelMat
    18. # 只要函数值不等于输入值i,函数就会进行随机选择
    19. import random
    20. # i输入下标,m为总数
    21. def selectJrand(i,m):
    22. j=i
    23. while(j==i):
    24. j=int(random.uniform(0,m))
    25. return j
    26. # 用于调整大于H或是小于L的alpha的值
    27. def clipAlpha(aj,H,L):
    28. # 大于H的值取H
    29. if aj>H:
    30. aj=H
    31. # 小于L的值取L
    32. if L>aj:
    33. aj=L
    34. return aj

    运行上面函数读取数据

    1. dataArr,labelArr=loadDataSet('testSet.txt')
    2. # 可以看出这里的分类标签是1和-1,而不是1和0
    3. labelArr

    运行得到的结果为:

     先写出数据集中的二维点的分布函数

    1. # 画出待分类数据的二维分布
    2. import numpy as np
    3. def plotBestFit(dataMat,labelMat):
    4. import matplotlib.pyplot as plt
    5. # getA()函数将矩阵转化为数组
    6. # weights=wei.getA()
    7. # 加载数据
    8. dataArr=np.array(dataMat)
    9. n=np.shape(dataArr)[0]
    10. xcord1=[]
    11. ycord1=[]
    12. xcord2=[]
    13. ycord2=[]
    14. # print(labelMat)
    15. for i in range(n):
    16. if int(labelMat[i])==1:
    17. xcord1.append(dataArr[i][0])
    18. ycord1.append(dataArr[i][1])
    19. else:
    20. xcord2.append(dataArr[i][0])
    21. ycord2.append(dataArr[i][1])
    22. fig=plt.figure()
    23. ax=fig.add_subplot(111)
    24. # print(xcord1)
    25. # print(ycord1)
    26. ax.scatter(xcord1,ycord1,s=30,c='red',marker='s')
    27. ax.scatter(xcord2,ycord2,s=30,c='green')
    28. # arange()函数用于创造等差数组
    29. # 起始点 终止点 步长
    30. # x=np.arange(-3.0,3.0,0.1)
    31. # y=(-weights[0]-weights[1]*x)/weights[2]
    32. # ax.plot(x,y)
    33. # 添加xy轴标签
    34. plt.xlabel('X1')
    35. plt.ylabel('X2')
    36. # 显示图像
    37. plt.show()

    调用上述函数

    plotBestFit(dataArr,labelArr)

    得到二维点的分布结果:

    接下来写SMO函数的具体实现,他的伪代码大致如下:

     创建一个alpha向量并将其初始化为0向量  

    当迭代次数小于最大迭代次数时:(外循环)  

     对数据集中的每个数据向量:(内循环)  

      如果该数据向量可以被优化:  

        随机选择另外一个数据向量  

        同时优化这两个向量  

        如果两个向量都不能被优化,推出内循环  

     如果所有向量都没有被优化,增加迭代次数,继续下一次循环  

     简化版的代码如下:

    1. # 简化版的smo算法
    2. from numpy import *
    3. # 构建函数时,采用通用的接口,这样就可以对算法和数据源进行组合和配对处理
    4. # 输入参数:数据集,类别标签,常数C,容错率,取消最大的循环次数
    5. def smoSimple(dataMatIn, classLabels, C, toler, maxIter):
    6. # 将数列转化为矩阵
    7. dataMatrix = mat(dataMatIn)
    8. # .transpose()函数映射坐标轴
    9. labelMat = mat(classLabels).transpose()
    10. b = 0;
    11. # 得到矩阵的长和宽
    12. m,n = shape(dataMatrix)
    13. # 得到一个m行1列全部是0的矩阵
    14. alphas = mat(zeros((m,1)))
    15. iter = 0
    16. while (iter < maxIter):
    17. alphaPairsChanged = 0
    18. for i in range(m):
    19. fXi = float(multiply(alphas,labelMat).T*(dataMatrix*dataMatrix[i,:].T)) + b
    20. Ei = fXi - float(labelMat[i])#if checks if an example violates KKT conditions
    21. # 如果alpha可以更改则进入优化过程
    22. if ((labelMat[i]*Ei < -toler) and (alphas[i] < C)) or ((labelMat[i]*Ei > toler) and (alphas[i] > 0)):
    23. j = selectJrand(i,m)
    24. fXj = float(multiply(alphas,labelMat).T*(dataMatrix*dataMatrix[j,:].T)) + b
    25. Ej = fXj - float(labelMat[j])
    26. alphaIold = alphas[i].copy()
    27. alphaJold = alphas[j].copy()
    28. # 保证alpha在0和C之间
    29. if (labelMat[i] != labelMat[j]):
    30. L = max(0, alphas[j] - alphas[i])
    31. H = min(C, C + alphas[j] - alphas[i])
    32. else:
    33. L = max(0, alphas[j] + alphas[i] - C)
    34. H = min(C, alphas[j] + alphas[i])
    35. if L==H: print ("L==H"); continue
    36. eta = 2.0 * dataMatrix[i,:]*dataMatrix[j,:].T - dataMatrix[i,:]*dataMatrix[i,:].T - dataMatrix[j,:]*dataMatrix[j,:].T
    37. if eta >= 0: print ("eta>=0"); continue
    38. alphas[j] -= labelMat[j]*(Ei - Ej)/eta
    39. alphas[j] = clipAlpha(alphas[j],H,L)
    40. if (abs(alphas[j] - alphaJold) < 0.00001): print ("j not moving enough"); continue
    41. alphas[i] += labelMat[j]*labelMat[i]*(alphaJold - alphas[j])#update i by the same amount as j
    42. #the update is in the oppostie direction
    43. b1 = b - Ei- labelMat[i]*(alphas[i]-alphaIold)*dataMatrix[i,:]*dataMatrix[i,:].T - labelMat[j]*(alphas[j]-alphaJold)*dataMatrix[i,:]*dataMatrix[j,:].T
    44. b2 = b - Ej- labelMat[i]*(alphas[i]-alphaIold)*dataMatrix[i,:]*dataMatrix[j,:].T - labelMat[j]*(alphas[j]-alphaJold)*dataMatrix[j,:]*dataMatrix[j,:].T
    45. if (0 < alphas[i]) and (C > alphas[i]):
    46. b = b1
    47. elif (0 < alphas[j]) and (C > alphas[j]):
    48. b = b2
    49. else:
    50. b = (b1 + b2)/2.0
    51. alphaPairsChanged += 1
    52. print ("iter: %d i:%d, pairs changed %d" % (iter,i,alphaPairsChanged))
    53. if (alphaPairsChanged == 0):
    54. iter += 1
    55. else:
    56. iter = 0
    57. print ("iteration number: %d" % iter)
    58. return b,alphas

    调用简化版的代码:

    b,alphas=smoSimple(dataArr,labelArr,0.6,0.001,40)

    运行得到的结果为:

     分别查看b和支持向量的alpha的值如下

     并且写代码筛选出得到的支持向量:

    1. shape(alphas[alphas>0])
    2. for i in range(100):
    3. if alphas[i]>0.0:
    4. print(dataArr[i],labelArr[i])

    运行得到的支持向量为5个支持向量

    4 利用完整Platt SMO算法加速优化

    在几百个点组成的小规模数据集上,简化版SMO算法的运行是么样问题的,但是在更大的数据集上的运行速度就会变慢。在完整版中,实现alpha的更改和代数运算的优化环节一模一样。在优化过程中唯一不同的就是选择alpha的方式。完整版的Platt SMO算法应用了一些那个提速的启发方法。  

    Platt SMO算法时通过一个外循环来选择第一个alpha的值,并且其选择过程会在两种方式之间交替:一种方式是在所有数据集上进行单遍扫描,另一种方式则是在非边界alpha中实现单遍扫描。而那些所谓非边界alpha指的就是那些不等于边界0或C的alpha值。对整个数据集的扫描相当容易,而实现非边界alpha值的扫描时,首先需要建立这些alpha值的列表,然后子啊对这个表进行遍历。同时该步骤会跳过那些一职的不会改变的alpha值。  

    在选择第一个alpha值的时后,算法会通过一个内循环来选择第二个alpha的值,在优化过程中,会通过最大化步长的方式来获得第二个alpha值。再简化版SMO算法中,我们会选择j之后计算错误率Ej。但在这里,我们会建立一个全局的缓存用于保存误差值,并从中选择使得步长或者说是Ei-Ej最大的alpha值  

    1. # 建立一个数据结构来保存所有重要的数据
    2. class optStruct:
    3. def __init__(self,dataMatIn,classLabels,C,toler):
    4. self.X=dataMatIn #数据集
    5. self.labelMat=classLabels #标签集
    6. self.C=C #常数C
    7. self.tol=toler #容错率
    8. self.m=shape(dataMatIn)[0] #数据集的列
    9. self.alphas=mat(zeros((self.m,1))) #alpha矩阵
    10. self.b=0 #参数b
    11. self.eCache=mat(zeros((self.m,2)))
    12. # 对于给定的alpha值,计算E值并返回
    13. # 使用频繁,直接单独拎出来
    14. def calcEk(oS,k):
    15. fXk=float(multiply(oS.alphas,oS.labelMat).T*(oS.X*oS.X[k,:].T))+oS.b
    16. Ek=fXk-float(oS.labelMat[k])
    17. return Ek
    18. # 用于选择第二个alpha或者说内循环的alpha的值
    19. def selectJ(i,oS,Ei):
    20. maxK=-1
    21. maxDeltaE=0
    22. Ej=0
    23. oS.eCache[i]=[1,Ei]
    24. validEcacheList=nonzero(oS.eCache[:,0].A)[0]
    25. if(len(validEcacheList))>1:
    26. for k in validEcacheList:
    27. if k==i:
    28. continue
    29. Ek=calcEk(oS,k)
    30. deltaE=abs(Ei-Ek)
    31. if(deltaE>maxDeltaE):
    32. maxK=k
    33. maxDeltaE=deltaE
    34. Ej=Ek
    35. return maxK,Ej
    36. else:
    37. j=selectJrand(i,oS.m)
    38. Ej=calcEk(oS,j)
    39. return j,Ej
    40. # 计算误差值并存入缓存
    41. def updateEk(oS,k):
    42. Ek=calcEk(oS,k)
    43. oS.eCache[k]=[1,Ek]
    44. # 用于寻找决策边界的优化例程
    45. def innerL(i,oS):
    46. Ei=calcEk(oS,i)
    47. # 是否进行优化
    48. if((oS.labelMat[i]*Ei<-oS.tol)and(oS.alphas[i]or((oS.labelMat[i]*Ei>oS.tol)and(oS.alphas[i]>0)):
    49. j,Ej=selectJ(i,oS,Ei)
    50. alphaIold=oS.alphas[i].copy()
    51. alphaJold=oS.alphas[j].copy()
    52. if(oS.labelMat[i]!=oS.labelMat[j]):
    53. L=max(0,oS.alphas[j]-oS.alphas[i])
    54. H=min(oS.C,oS.C+oS.alphas[j]-oS.alphas[i])
    55. else:
    56. L=max(0,oS.alphas[j]+oS.alphas[i]-oS.C)
    57. H=min(oS.C,oS.alphas[j]+oS.alphas[i])
    58. if L==H:
    59. print ("L==H")
    60. return 0
    61. eta = 2.0 * oS.X[i,:]*oS.X[j,:].T - oS.X[i,:]*oS.X[i,:].T - oS.X[j,:]*oS.X[j,:].T
    62. if eta >= 0:
    63. print ("eta>=0")
    64. return 0
    65. oS.alphas[j] -= oS.labelMat[j]*(Ei - Ej)/eta
    66. oS.alphas[j] = clipAlpha(oS.alphas[j],H,L)
    67. updateEk(oS, j) #added this for the Ecache
    68. if (abs(oS.alphas[j] - alphaJold) < 0.00001):
    69. print ("j not moving enough")
    70. return 0
    71. oS.alphas[i] += oS.labelMat[j]*oS.labelMat[i]*(alphaJold - oS.alphas[j])#update i by the same amount as j
    72. updateEk(oS, i) #added this for the Ecache #the update is in the oppostie direction
    73. b1 = oS.b - Ei- oS.labelMat[i]*(oS.alphas[i]-alphaIold)*oS.X[i,:]*oS.X[i,:].T - oS.labelMat[j]*(oS.alphas[j]-alphaJold)*oS.X[i,:]*oS.X[j,:].T
    74. b2 = oS.b - Ej- oS.labelMat[i]*(oS.alphas[i]-alphaIold)*oS.X[i,:]*oS.X[j,:].T - oS.labelMat[j]*(oS.alphas[j]-alphaJold)*oS.X[j,:]*oS.X[j,:].T
    75. if (0 < oS.alphas[i]) and (oS.C > oS.alphas[i]):
    76. oS.b = b1
    77. elif (0 < oS.alphas[j]) and (oS.C > oS.alphas[j]):
    78. oS.b = b2
    79. else:
    80. oS.b = (b1 + b2)/2.0
    81. return 1
    82. else:
    83. return 0
    84. # 外循环代码
    85. def smoP(dataMatIn,classLabels,C,toler,maxIter,kTup=('lin',0)):
    86. # 初始化一个结构体
    87. oS=optStruct(mat(dataMatIn),mat(classLabels).transpose(),C,toler)
    88. iter=0 #记录循环次数
    89. entireSet=True
    90. alphaPairsChanged=0
    91. # 进入循环
    92. # 如果循环次数没有达到最大上限 and
    93. while(iterand ((alphaPairsChanged>0)or(entireSet)):
    94. alphaPairsChanged=0
    95. if entireSet:
    96. # 对数据集中的每个数据向量
    97. for i in range(oS.m):
    98. alphaPairsChanged+=innerL(i,oS)
    99. print("fullSet,iter:%d i:%d,pairs changed %d" %(iter,i,alphaPairsChanged))
    100. iter+=1
    101. else:
    102. nonBoundIs=nonzero((oS.alphas.A>0)*(oS.alphas.A0]
    103. for i in nonBoundIs:
    104. alphaPairsChanged+=innerL(i,oS)
    105. print("non-bound,iter:%d i:%d,pairs changed %d" %(iter,i,alphaPairsChanged))
    106. iter+=1
    107. # 使下次能够进入循环
    108. if entireSet:
    109. entireSet=False
    110. elif(alphaPairsChanged==0):
    111. entireSet=True
    112. print("iteration number:%d"%iter)
    113. # 返回训练得到的b和alpha矩阵
    114. return oS.b,oS.alphas

    利用上述代码进行SMO的计算

    1. # 打开文件,读取数据
    2. dataArr,labelArr=loadDataSet('testSet.txt')
    3. # 将数据进行支持向量机训练
    4. b,alphas=smoP(dataArr,labelArr,0.6,0.001,40)

    运行得到的结果为:

     再次查看b和支持向量的值:

    计算最终起作用的(斜率)?

    1. def calcWs(alphas,dataArr,classLabels):
    2. X=mat(dataArr)
    3. labelMat=mat(classLabels).transpose()
    4. m,n=shape(X)
    5. w=zeros((n,1))
    6. for i in range(m):
    7. # 最终起作用的只有支持向量
    8. w+=multiply(alphas[i]*labelMat[i],X[i,:].T)
    9. return w

     调用上述函数并使用一个数据进行检验

    1. ws=calcWs(alphas,dataArr,labelArr)
    2. datMat=mat(dataArr)
    3. datMat[0]*mat(ws)+b

    得到的结果为

    结果是小于0 的

    因此查看该数据的分类:

    是-1,因此测试的结果正确。 

     5 在复杂数据上应用核函数

    前面我们用的数据就是讨论线性可分的情况。接下来,我们就要使用一种称为核函数的工具将数据转换为已于分类器理解的形式

    5.1 利用核函数将数据映射到高维空间

    我们将数据从一个特征空间转换为另一个特征空间。再新空间下,我们可以很容易利用已有的工具对数据进行处理。在通常情况下,这种映射将为从低维特征空间映射到高维空间。  

    这种从某个特征空间到另一个特征空间的映射是通过核函数来实现的。他能够报数据从某个很难处理的形式转换为另一个较容易处理的形式。经过空间转换之后,我们可以在高维空间中解决线性问题,这也就等价于在地位空间中解决非线性问题。  

    SVM优化中一个特别好的地方就是,所有的运算都可以写成内积的形式,向量的内积指的是两个向量相乘,之后得到的单个标量或是数值。把内积替换成核函数,而不做简化处理,这种方式被称为核技巧。  

    核函数不仅仅应用于向量机,很多其他的机器学习算法也都有用到核函数。

    5.2径向基核函数

    径向基函数是SVM中常用到的一种核函数,他是一个采用向量作为自变量的函数,能够基于向量距离运算输出一个标量。  

    这里 我们应用径向基函数的高斯版本,将数据从特征空间映射到更高维的空间,具体来说是映射到一个更高维的空间

    1. # 转换核函数
    2. def kernelTrans(X,A,kTup):
    3. m,n=shape(X)
    4. K=mat(zeros((m,1)))
    5. if kTup[0]=='lin':
    6. K=X*A.T
    7. elif kTup[0]=='rbf':
    8. for j in range(m):
    9. deltaRow=X[j,:]-A
    10. K[j]=deltaRow*deltaRow.T
    11. K=exp(K/(-1*kTup[1]**2))
    12. else:
    13. raise NameError('Houston We Have a Problem--That Kernel is not recognized')
    14. return K
    15. # 定义一个新的结构体,加入核函数
    16. class optStruct:
    17. def __init__(self,dataMatIn,classLabels,C,toler,kTup):
    18. self.X=dataMatIn
    19. self.labelMat=classLabels
    20. self.C=C
    21. self.tol=toler
    22. self.m=shape(dataMatIn)[0]
    23. self.alphas=mat(zeros((self.m,1)))
    24. self.b=0
    25. self.eCache=mat(zeros((self.m,2)))
    26. self.K=mat(zeros((self.m,self.m)))
    27. # 计算核函数
    28. # 引入一个新变量kTup
    29. for i in range(self.m):
    30. # 计算高斯函数的值
    31. self.K[:,i]=kernelTrans(self.X,self.X[i,:],kTup)
    32. # 重新更改上文中提到的innerL()和calcLEk()函数的部分代码
    33. # 用于寻找决策边界的优化例程
    34. def innerL(i,oS):
    35. Ei=calcEk(oS,i)
    36. # 是否进行优化
    37. if((oS.labelMat[i]*Ei<-oS.tol)and(oS.alphas[i]or((oS.labelMat[i]*Ei>oS.tol)and(oS.alphas[i]>0)):
    38. j,Ej=selectJ(i,oS,Ei)
    39. alphaIold=oS.alphas[i].copy()
    40. alphaJold=oS.alphas[j].copy()
    41. if(oS.labelMat[i]!=oS.labelMat[j]):
    42. L=max(0,oS.alphas[j]-oS.alphas[i])
    43. H=min(oS.C,oS.C+oS.alphas[j]-oS.alphas[i])
    44. else:
    45. L=max(0,oS.alphas[j]+oS.alphas[i]-oS.C)
    46. H=min(oS.C,oS.alphas[j]+oS.alphas[i])
    47. if L==H:
    48. print ("L==H")
    49. return 0
    50. eta = 2.0 * oS.K[i,j]-oS.K[i,i]-oS.K[j,j]
    51. if eta >= 0:
    52. print ("eta>=0")
    53. return 0
    54. oS.alphas[j] -= oS.labelMat[j]*(Ei - Ej)/eta
    55. oS.alphas[j] = clipAlpha(oS.alphas[j],H,L)
    56. updateEk(oS, j) #added this for the Ecache
    57. if (abs(oS.alphas[j] - alphaJold) < 0.00001):
    58. print ("j not moving enough")
    59. return 0
    60. oS.alphas[i] += oS.labelMat[j]*oS.labelMat[i]*(alphaJold - oS.alphas[j])#update i by the same amount as j
    61. updateEk(oS, i) #added this for the Ecache #the update is in the oppostie direction
    62. b1 = oS.b - Ei- oS.labelMat[i]*(oS.alphas[i]-alphaIold)*oS.K[i,i] - oS.labelMat[j]*(oS.alphas[j]-alphaJold)*oS.K[i,j]
    63. b2 = oS.b - Ej- oS.labelMat[i]*(oS.alphas[i]-alphaIold)*oS.K[i,j] - oS.labelMat[j]*(oS.alphas[j]-alphaJold)*oS.K[j,j]
    64. if (0 < oS.alphas[i]) and (oS.C > oS.alphas[i]):
    65. oS.b = b1
    66. elif (0 < oS.alphas[j]) and (oS.C > oS.alphas[j]):
    67. oS.b = b2
    68. else:
    69. oS.b = (b1 + b2)/2.0
    70. return 1
    71. else:
    72. return 0
    73. # 外循环代码
    74. def smoP(dataMatIn,classLabels,C,toler,maxIter,kTup=('lin',0)):
    75. # 初始化一个结构体
    76. oS=optStruct(mat(dataMatIn),mat(classLabels).transpose(),C,toler,kTup)
    77. iter=0 #记录循环次数
    78. entireSet=True
    79. alphaPairsChanged=0
    80. # 进入循环
    81. # 如果循环次数没有达到最大上限 and
    82. while(iterand ((alphaPairsChanged>0)or(entireSet)):
    83. alphaPairsChanged=0
    84. if entireSet:
    85. # 对数据集中的每个数据向量
    86. for i in range(oS.m):
    87. alphaPairsChanged+=innerL(i,oS)
    88. print("fullSet,iter:%d i:%d,pairs changed %d" %(iter,i,alphaPairsChanged))
    89. iter+=1
    90. else:
    91. nonBoundIs=nonzero((oS.alphas.A>0)*(oS.alphas.A0]
    92. for i in nonBoundIs:
    93. alphaPairsChanged+=innerL(i,oS)
    94. print("non-bound,iter:%d i:%d,pairs changed %d" %(iter,i,alphaPairsChanged))
    95. iter+=1
    96. # 使下次能够进入循环
    97. if entireSet:
    98. entireSet=False
    99. elif(alphaPairsChanged==0):
    100. entireSet=True
    101. print("iteration number:%d"%iter)
    102. # 返回训练得到的b和alpha矩阵
    103. return oS.b,oS.alphas
    104. def calcEk(oS,k):
    105. fXk=float(multiply(oS.alphas,oS.labelMat).T*oS.K[:,k]+oS.b)
    106. Ek=fXk-float(oS.labelMat[k])
    107. return Ek

    5.3 在测试中用到核函数

    1. def testRbf(k1=1.3):
    2. dataArr,labelArr=loadDataSet('testSetRBF.txt')
    3. plotBestFit(dataArr,labelArr)
    4. b,alphas=smoP(dataArr,labelArr,200,0.0001,10000,('rbf',k1))
    5. datMat=mat(dataArr)
    6. labelMat=mat(labelArr).transpose()
    7. svInd=nonzero(alphas.A>0)[0]
    8. sVs=datMat[svInd]
    9. labelSV=labelMat[svInd]
    10. print('there are %d Support Vectors' % shape(sVs)[0])
    11. m,n=shape(datMat)
    12. errorCount=0
    13. for i in range(m):
    14. kernelEval=kernelTrans(sVs,datMat[i,:],('rbf',k1))
    15. predict=kernelEval.T*multiply(labelSV,alphas[svInd])+b
    16. if sign(predict)!=sign(labelArr[i]):
    17. errorCount+=1
    18. print('the training error rate is :%f' % (float(errorCount)/m))
    19. dataArr,labelArr=loadDataSet('testSetRBF2.txt')
    20. errorCount=0
    21. datMat=mat(dataArr)
    22. labelMat=mat(labelArr).transpose()
    23. m,n=shape(datMat)
    24. for i in range(m):
    25. kernelEval=kernelTrans(sVs,datMat[i,:],('rbf',k1))
    26. predict=kernelEval.T*multiply(labelSV,alphas[svInd])+b
    27. if sign(predict)!=sign(labelArr[i]):
    28. errorCount+=1
    29. print("the test error rate is :%f" %(float(errorCount)/m))

    调用上述函数:

    testRbf()

    得到的输出结果为:

     可以看出数据测试的错误率为0.27

     6 手写识别问题回顾

    基于SVM的数字识别  

    ①收集数据:提供的文本文件  

    ②准备数据:基于二值图像构建向量  

    ③分析数据:对图像向量进行目测  

    ④训练数据:采用两种不同的核函数,并对径向基核函数采用不同的设置来运行SMO算法  

    ⑤测试算法:编写一个函数来测试不同的核函数并计算错误率  

    ⑥使用算法:一个图像识别的完整应用还需要一些图像处理的知识  

    1. from random import triangular
    2. def img2vector(filename):
    3. returnVect=zeros((1,1024))
    4. fr=open(filename)
    5. # 按行读取矩阵
    6. for i in range(32):
    7. lineStr=fr.readline()
    8. for j in range(32):
    9. returnVect[0,32*i+j]=int (lineStr[j])
    10. return returnVect
    11. def loadImages(dirName):
    12. from os import listdir
    13. hwLabels = []
    14. trainingFileList = listdir(dirName) #load the training set
    15. m = len(trainingFileList)
    16. trainingMat = zeros((m,1024))
    17. for i in range(m):
    18. fileNameStr = trainingFileList[i]
    19. fileStr = fileNameStr.split('.')[0] #take off .txt
    20. classNumStr = int(fileStr.split('_')[0])
    21. if classNumStr == 9: hwLabels.append(-1)
    22. else: hwLabels.append(1)
    23. trainingMat[i,:] = img2vector('%s/%s' % (dirName, fileNameStr))
    24. return trainingMat, hwLabels
    25. def testDigits(kTup=('rbf',10)):
    26. dataArr,labelArr=loadImages('digits/trainingDigits')
    27. b,alphas=smoP(dataArr,labelArr,100,0.001,10000,kTup)
    28. datMat=mat(dataArr)
    29. labelMat=mat(labelArr).transpose()
    30. svInd=nonzero(alphas.A>0)[0]
    31. sVs=datMat[svInd]
    32. labelSV=labelMat[svInd]
    33. print("there are %d Support Vectors"%shape(sVs)[0])
    34. m,n=shape(datMat)
    35. errorCount=0
    36. for i in range(m):
    37. kernelEval=kernelTrans(sVs,datMat[i,:],kTup)
    38. predict=kernelEval.T*multiply(labelSV,alphas[svInd])+b
    39. if sign(predict)!=sign(labelArr[i]):
    40. errorCount+=1
    41. print("the training error rate is:%f" % (float(errorCount)/m))
    42. dataArr,labelArr=loadImages('digits/testDigits')
    43. errorCount=0
    44. datMat=mat(dataArr)
    45. labelMat=mat(labelArr).transpose()
    46. m,n=shape(datMat)
    47. for i in range(m):
    48. kernelEval=kernelTrans(sVs,datMat[i,:],kTup)
    49. predict=kernelEval.T*multiply(labelSV,alphas[svInd])+b
    50. if sign(predict)!=sign(labelArr[i]):
    51. errorCount+=1
    52. print("the test error rate is :%f" % (float(errorCount)/m))

    调用上述函数:

    testDigits(('rbf',20))

    得到的结果为为:

    因此一旦碰到数字9,则输出类别标签-1,否则输出+1。本质上,支持向量机是-个二类分类器,其分类结果不是+1就是-1。由于这里只做二类分类,因此除了1和9之外的数字都被去掉了。

     7 本章小结

    支持向量机是一种分类器。之所以称为“机”,是因为它会产生一个二值决策的结果,即它是一种决策机。支持向量机的泛化错误率较低,也就是说他具有良好的学习能力,并且学到的结果具有良好的推广性。  

    支持向量机试图通过求解一个二次元问题来最大化分类间隔,再过去,训练支持向量机常采用非常复杂并且低效的二次规划问题,john Platt引入了SMO算法,此算法可以通过每次只优化2个alpha值来加快SVM的训练速度。  

    核方法或者说是核技巧会将数据从一个低维空间映射到一个高维空间,可以将一个在低维空间中的非线性问题转换为高维空间的一个线性问题来研究

  • 相关阅读:
    一条爬虫抓取一个小网站所有数据
    OpenCV自学笔记十三:图像梯度
    【RPA实战】 中秋节月饼不知道买哪种?UiPath零代码2分钟获取1000种月饼商品信息告诉你答案
    【redis】Redis是AP架构还是CP架构?
    绕任意轴旋转矩阵推导
    SpringBoot保姆级教程(三)SpringBoot原理分析
    卷积神经网络基本概念
    多对多的创建方式与Ajax
    mysql无法访问故障排除步骤
    聊聊我们是如何做技术保障的
  • 原文地址:https://blog.csdn.net/weixin_46182244/article/details/127578438