• 聚类-kmeans


    聚类算法是无监督学习算法,指定将数据分成k个簇。然后通过每个点到各个簇的中心的欧氏距离来分类。d(x,y)=\sqrt{(x_{1}-y_{1}^{2})+(x_{2}-y_{2})^{2}+...+(x_{n}-y_{n})^{2}}

    kmeans本身会陷入局部最小值的状况,二分kmeans可以解决这一点。

    二分kmeans是遍历所有的簇,将其分成2个,比较哪一个分裂结果更好,用距离和来代表误差

    例如现在只有一个簇A,第一轮分裂成A,A1,下一次比较A,A1两个分裂的结果哪个更换,比如A1更好,所以分裂结果为A,A1,A11。

    1. from __future__ import print_function
    2. from numpy import *
    3. # 从文本中构建矩阵,加载文本文件,然后处理
    4. def loadDataSet(fileName): # 通用函数,用来解析以 tab 键分隔的 floats(浮点数)
    5. dataSet = []
    6. fr = open(fileName)
    7. for line in fr.readlines():
    8. curLine = line.strip().split('\t')
    9. fltLine = map(float, curLine) # 映射所有的元素为 float(浮点数)类型
    10. dataSet.append(fltLine)
    11. return dataSet
    12. # 计算两个向量的欧式距离(可根据场景选择)
    13. def distEclud(vecA,vecB):
    14. return sqrt(sum(power(vecA-vecB,2))) # la.norm(vecA-vecB)
    15. # 为给定数据集构建一个包含 k 个随机质心的集合。随机质心必须要在整个数据集的边界之内,这可以通过找到数据集每一维的最小和最大值来完成。然后生成 0~1.0 之间的随机数并通过取值范围和最小值,以便确保随机点在数据的边界之内。
    16. def randCent(dataMat,k):
    17. n=shape(dataMat)[1] # 列的数量
    18. centroids=mat(zeros((k,n))) # 创建k个质心矩阵
    19. for j in range(n): # 创建随机簇质心,并且在每一维的边界内
    20. minJ=min(dataMat[:,j]) # 最小值
    21. rangeJ=float(max(dataMat[:,j])-minJ) # 范围=最大值-最小值
    22. centroids[:,j]=mat(minJ+rangeJ*random.rand(k,1)) # 随机生成
    23. return centroids
    24. # k-means 聚类算法
    25. # 该算法会创建k个质心,然后将每个点分配到最近的质心,再重新计算质心。
    26. # 这个过程重复数次,知道数据点的簇分配结果不再改变位置。
    27. # 运行结果(多次运行结果可能会不一样,可以试试,原因为随机质心的影响,但总的结果是对的, 因为数据足够相似,也可能会陷入局部最小值)
    28. def KMeans(dataMat,k,distMeas=distEclud,createCent=randCent):
    29. m=shape(dataMat)[0] # 行数
    30. clusterAssment=mat(zeros((m,2))) # 创建一个与dataMat 行数一样,但是有两列的矩阵,用来保存簇分配结果
    31. centroids=createCent(dataMat,k) # 创建质心,随机k个质心
    32. clusterChanged=True
    33. while clusterChanged:
    34. clusterChanged=False
    35. for i in range(m): # 循环每一个数据点并分配到最近的质心中去
    36. minDist=inf
    37. minIndex=-1
    38. for j in range(k):
    39. distJI=distMeas(centroids[j,:],dataMat[i,:]) # 计算数据点到质心的距离
    40. if distJI# 如果距离比 minDist(最小距离)还小,更新 minDist(最小距离)和最小质心的 index(索引)
    41. minDist=distJI
    42. minIndex=j
    43. if clusterAssment[i,0]!=minIndex: # 簇分配结果改变
    44. clusterChanged=True #簇改变
    45. clusterAssment[i,:]=minIndex,minDist**2 #更新簇分配结果为最小质心的index(索引),minDist(最小距离)的平方
    46. print(centroids)
    47. for cent in range(k): #更新质心
    48. ptsInClust=dataMat[nonzero(clusterAssment[:,0].A==cent)[0]] #获取该簇中所有点
    49. centroids[cent,:]=mean(ptsInClust,axis=0) # 将质心修改为簇中所有点的平均值,mean就是求平均值的
    50. return centroids,clusterAssment
    51. # 二分 KMeans 聚类算法, 基于 kMeans 基础之上的优化,以避免陷入局部最小值
    52. def biKMeans(dataMat,k,distMeas=distEclud):
    53. m=shape(dataMat)[0]
    54. clusterAssment=mat(zeros((m,2))) # 保存每个数据点的簇分配结果和平方误差
    55. centroid0=mean(dataMat,axis=0).tolist()[0] # 质心初始化为所有数据点的均值
    56. centList=[centroid0] # 初始化只有 1 个质心的 list
    57. for j in range(m): # 计算所有数据点到初始质心的距离平方误差
    58. clusterAssment[j,1]=distMeas(mat(centroid0),dataMat[j,:])**2
    59. while(len(centList)# 当质心数量小于k时
    60. lowestSSE=inf
    61. for i in range(len(centList)): #对每一个质心
    62. ptsInCurrCluster=dataMat[nonzero(clusterAssment[:,0].A==i)[0],:] # 获取当前簇i下的所有数据点
    63. centroidMat,splitClustAss=KMeans(ptsInCurrCluster,2,distMeas) # 将当前簇 i 进行二分 kMeans 处理
    64. sseSplit = sum(splitClustAss[:, 1]) # 将二分 kMeans 结果中的平方和的距离进行求和
    65. sseNotSplit =sum(clusterAssment[nonzero(clusterAssment[:,0].A!=i)[0],1]) # 将未参与二分 kMeans 分配结果中的平方和的距离进行求和
    66. print("sseSplit, and notSplit: ", sseSplit, sseNotSplit)
    67. if (sseSplit + sseNotSplit) < lowestSSE:
    68. bestCentToSplit = i
    69. bestNewCents = centroidMat
    70. bestClustAss = splitClustAss.copy()
    71. lowestSSE = sseSplit + sseNotSplit
    72. # 找出最好的簇分配结果
    73. bestClustAss[nonzero(bestClustAss[:, 0].A == 1)[0], 0] = len(centList) # 调用二分 kMeans 的结果,默认簇是 0,1. 当然也可以改成其它的数字
    74. bestClustAss[nonzero(bestClustAss[:, 0].A == 0)[0],0] = bestCentToSplit # 更新为最佳质心
    75. print('the bestCentToSplit is: ', bestCentToSplit)
    76. print('the len of bestClustAss is: ', len(bestClustAss))
    77. # 更新质心列表
    78. centList[bestCentToSplit] = bestNewCents[0, :].tolist()[0] # 更新原质心 list 中的第 i 个质心为使用二分 kMeans 后 bestNewCents 的第一个质心
    79. centList.append(bestNewCents[1, :].tolist()[0]) # 添加 bestNewCents 的第二个质心
    80. clusterAssment[nonzero(clusterAssment[:, 0].A == bestCentToSplit)[0], :] = bestClustAss # 重新分配最好簇下的数据(质心)以及SSE
    81. return mat(centList), clusterAssment
    82. def testBasicFunc():
    83. # 加载测试数据集
    84. dataMat = mat(loadDataSet('data/10.KMeans/testSet.txt'))
    85. # 测试 randCent() 函数是否正常运行。
    86. # 首先,先看一下矩阵中的最大值与最小值
    87. print('min(dataMat[:, 0])=', min(dataMat[:, 0]))
    88. print('min(dataMat[:, 1])=', min(dataMat[:, 1]))
    89. print('max(dataMat[:, 1])=', max(dataMat[:, 1]))
    90. print('max(dataMat[:, 0])=', max(dataMat[:, 0]))
    91. # 然后看看 randCent() 函数能否生成 min 到 max 之间的值
    92. print('randCent(dataMat, 2)=', randCent(dataMat, 2))
    93. # 最后测试一下距离计算方法
    94. print(' distEclud(dataMat[0], dataMat[1])=', distEclud(dataMat[0], dataMat[1]))
    95. def testKMeans():
    96. # 加载测试数据集
    97. dataMat = mat(loadDataSet('data/10.KMeans/testSet.txt'))
    98. # 该算法会创建k个质心,然后将每个点分配到最近的质心,再重新计算质心。
    99. # 这个过程重复数次,知道数据点的簇分配结果不再改变位置。
    100. # 运行结果(多次运行结果可能会不一样,可以试试,原因为随机质心的影响,但总的结果是对的, 因为数据足够相似)
    101. myCentroids, clustAssing = KMeans(dataMat, 4)
    102. print('centroids=', myCentroids)
    103. def testBiKMeans():
    104. # 加载测试数据集
    105. dataMat = mat(loadDataSet('data/10.KMeans/testSet2.txt'))
    106. centList, myNewAssments = biKMeans(dataMat, 3)
    107. print('centList=', centList)
    1. # 测试基础的函数
    2. testBasicFunc()
    3. # 测试 kMeans 函数
    4. testKMeans()
    5. # 测试二分 biKMeans 函数
    6. testBiKMeans()

  • 相关阅读:
    【云原生】一篇打通架构设计,Java设计模式6,依赖倒置原则
    Android cannot resolve constructor intent解决
    分布式学习 - MPICH编译与实践
    服务器感染了.360、.halo勒索病毒,如何确保数据文件完整恢复?
    解锁云原生新场景 | 云原生加速云边端一体化发展
    C++笔记之C++、C语言、PISIX、拿到线程函数的返回值的所有方法
    flutter面试题
    Python装饰器探究
    Mac配置nvm包管理
    ETCD中MVCC的运用
  • 原文地址:https://blog.csdn.net/qq_36973725/article/details/132858569