• Fisher辨别分析


    • 问题要求

    UCI数据集上的Iris和Sonar数据上验证算法的有效性。训练和测试样本有三种方式(三选一)进行划分:

    (一) 将数据随机分训练和测试,多次平均求结果

    (二)K折交叉验证

    (三)留1法

    针对不同维数,画出曲线图。

    • 问题分析

    (一)数据集

    1.Iris数据集是常用的分类实验数据集,由Fisher收集整理。Iris也称鸢尾花卉数据集,是一类多重变量分析的数据集。数据集包含150个数据样本,分为3类,每类50个数据,每个数据包含4个属性。可通过花萼长度,花萼宽度,花瓣长度,花瓣宽度4个属性预测鸢尾花卉属于(Setosa,Versicolour,Virginica)三个种类中的哪一类。

    2.在Sonar数据集中有两类(字母“R”(岩石)和“M”(矿井)),分别有97个和111个数据,每个数据有60维的特征。这个分类任务是为了判断声纳的回传信号是来自金属圆柱还是不规则的圆柱形石头。

    (二)Fisher线性判别分析

    1.方法总括

    Fisher线性判别方法可概括为把 d 维空间的样本投影到一条直线上,形成一维空间,即通过降维去解决两分类问题。如何根据实际数据找到一条最好的、最易于分类的投影方向,是 Fisher 判别方法所要解决的基本问题。

    2. 求解过程

    (1)核心思想

    假设有一集合 D 包含 m 个 n 维样本{x1, x2, …, xm},第一类样本集合记为 D1,规模为 N1,第二类样本集合记为 D2,规模为 N2。若对 xi 的分量做线性组合可得标量:yi = wTxi(i=1,2,…,m)这样便得到 m 个一维样本 yi 组成的集合, 并可分为两个子集 D’1 和 D’2。计算阈值 yo,当 yi>yo 时判断 xi 属于第一类, 当 yi

    相关书籍或网站上都有具体推导过程,这里不再赘述。

      (3)样本划分

    采用留1法划分训练集和数据集,该方法是K折法的一种极端情况。

    在K折法中,将全部训练集 S分成 k个不相交的子集,假设 S中的训练样例个数为 N,那么每一个子集有 N/k 个训练样例,相应的子集称作 {s1,s2,…,sk}。每次从分好的子集中里面,拿出一个作为测试集,其它k-1个作为训练集,根据训练训练出模型或者假设函数。然后把这个模型放到测试集上,得到分类率,计算k次求得的分类率的平均值,作为该模型或者假设函数的真实分类率。

    当取K的值为样本个数N时,即将每一个样本作为测试样本,其它N-1个样本作为训练样本。这样得到N个分类器,N个测试结果。用这N个结果的平均值来衡量模型的性能,这就是留1法。在UCI数据集中,由于数据个数较少,采用留一法可以使样本利用率最高。

    • 仿真结果
    • 1.Iris数据集

    由于Fisher分类器只能将样本划分为两类,则将三份数据两两分类并采取留1法进行划分。由仿真效果可看出划分界限十分明显,Fisher算法分类的表现较好。

    • 2.Sonar数据集

    由仿真结果可看出,维度在30维之前时,纬度越高,Fisher判别的准确率越高;维度在30维之后,Fisher判别的准确率趋于稳定,在75%左右。cc8cfcda482b46a0916a91422586f04a.png27dadc84a38e4c4aa0631cdafdfcb5aa.png6a0e8c27c89c4d9e869bbcde1dc2b89c.png

    代码如下:

    (1)iris数据集

    1. import pandas as pd
    2. import numpy as np
    3. import matplotlib.pyplot as plt
    4. import matplotlib as mpl
    5. print(mpl.get_backend())
    6. Iris = pd.read_csv('iris.data', header=None, sep=',')
    7. def Fisher(X1, X2, t):
    8. # 各类样本均值向量
    9. m1 = np.mean(X1, axis=0)
    10. m2 = np.mean(X2, axis=0)
    11. m1 = m1.reshape(4, 1)
    12. m2 = m2.reshape(4, 1)
    13. m = m1 - m2
    14. # 样本类内离散度矩阵
    15. s1 = np.zeros((4, 4)) # s1,s2此时均为数组
    16. s2 = np.zeros((4, 4))
    17. if t == 0: # 第一种情况
    18. for i in range(0, 49):
    19. s1 += (X1[i].reshape(4, 1) - m1).dot((X1[i].reshape(4, 1) - m1).T)
    20. for i in range(0, 50):
    21. s2 += (X2[i].reshape(4, 1) - m2).dot((X2[i].reshape(4, 1) - m2).T)
    22. if t == 1: # 第二种情况
    23. for i in range(0, 50):
    24. s1 += (X1[i].reshape(4, 1) - m1).dot((X1[i].reshape(4, 1) - m1).T)
    25. for i in range(0, 49):
    26. s2 += (X2[i].reshape(4, 1) - m2).dot((X2[i].reshape(4, 1) - m2).T)
    27. # 总类内离散度矩阵
    28. sw = s1 + s2
    29. sw = np.mat(sw, dtype='float')
    30. m = np.mat(m, dtype='float')
    31. # 最佳投影方向
    32. w = np.linalg.inv(sw).dot(m)
    33. # 在投影后的一维空间求两类的均值
    34. m1 = np.mat(m1, dtype='float')
    35. m2 = np.mat(m2, dtype='float')
    36. m_1 = (w.T).dot(m1)
    37. m_2 = (w.T).dot(m2)
    38. # 计算分类阈值w0
    39. w0 = -0.5 * (m_1 + m_2)
    40. return w, w0
    41. def Classify(X,w,w0):
    42. y = (w.T).dot(X) + w0
    43. return y
    44. #数据预处理
    45. Iris = Iris.iloc[0:150,0:4]
    46. iris = np.mat(Iris)
    47. Accuracy = 0
    48. iris1 = iris[0:50, 0:4]
    49. iris2 = iris[50:100, 0:4]
    50. iris3 = iris[100:150, 0:4]
    51. G121 = np.ones(50)
    52. G122 = np.ones(50)
    53. G131 = np.zeros(50)
    54. G132 = np.zeros(50)
    55. G231 = np.zeros(50)
    56. G232 = np.zeros(50)
    57. # 留一法验证准确性
    58. # 第一类和第二类的线性判别
    59. count = 0
    60. for i in range(100):
    61. if i <= 49:
    62. test = iris1[i]
    63. test = test.reshape(4, 1)
    64. train = np.delete(iris1, i, axis=0)
    65. w, w0 = Fisher(train, iris2, 0)
    66. if (Classify(test, w, w0)) >= 0:
    67. count += 1
    68. G121[i] = Classify(test, w, w0)
    69. else:
    70. test = iris2[i-50]
    71. test = test.reshape(4, 1)
    72. train = np.delete(iris2, i-50, axis=0)
    73. w, w0 = Fisher(iris1, train, 1)
    74. if (Classify(test, w, w0)) < 0:
    75. count += 1
    76. G122[i-50] = Classify(test, w, w0)
    77. Accuracy12 = count/100
    78. print("第一类和二类的分类准确率为:%.3f"%(Accuracy12))
    79. # 第二类和第三类的线性判别
    80. count = 0
    81. for i in range(100):
    82. if i <= 49:
    83. test = iris2[i]
    84. test = test.reshape(4, 1)
    85. train = np.delete(iris2, i, axis=0)
    86. w, w0 = Fisher(train, iris3, 0)
    87. if (Classify(test, w, w0)) >= 0:
    88. count += 1
    89. G231[i] = Classify(test, w, w0)
    90. else:
    91. test = iris3[i-50]
    92. test = test.reshape(4, 1)
    93. train = np.delete(iris3, i-50, axis=0)
    94. w, w0 = Fisher(iris2, train, 1)
    95. if (Classify(test, w, w0)) < 0:
    96. count += 1
    97. G232[i-50] = Classify(test, w, w0)
    98. Accuracy23 = count/100
    99. print("第二类和第三类的分类准确率为:%.3f"%(Accuracy23))
    100. # 第一类和第三类的线性判别
    101. count = 0
    102. for i in range(100):
    103. if i <= 49:
    104. test = iris1[i]
    105. test = test.reshape(4, 1)
    106. train = np.delete(iris1, i, axis=0)
    107. w, w0 = Fisher(train, iris3, 0)
    108. if (Classify(test, w, w0)) >= 0:
    109. count += 1
    110. G131[i] = Classify(test, w, w0)
    111. else:
    112. test = iris3[i-50]
    113. test = test.reshape(4, 1)
    114. train = np.delete(iris3, i-50, axis=0)
    115. w,w0 = Fisher(iris1, train, 1)
    116. if (Classify(test, w, w0)) < 0:
    117. count += 1
    118. G132[i-50] = Classify(test, w, w0)
    119. Accuracy13 = count/100
    120. print("第一类和第三类的分类准确率为:%.3f"%(Accuracy13))
    121. # 作图
    122. y1 = np.zeros(50)
    123. y2 = np.zeros(50)
    124. plt.figure(1)
    125. plt.ylim((-0.5, 0.5))
    126. # 画散点图
    127. plt.scatter(G121, y1, color='red', marker='.')
    128. plt.scatter(G122, y2, color='blue', marker='.')
    129. plt.xlabel('Class:1-2')
    130. plt.show()
    131. plt.figure(2)
    132. plt.ylim((-0.5, 0.5))
    133. # 画散点图
    134. plt.scatter(G231, y1, c='red', marker='.')
    135. plt.scatter(G232, y2, c='blue', marker='.')
    136. plt.xlabel('Class:2-3')
    137. plt.show()
    138. plt.figure(3)
    139. plt.ylim((-0.5, 0.5))
    140. # 画散点图
    141. plt.scatter(G131, y1, c='red', marker='.')
    142. plt.scatter(G132, y2, c='blue', marker='.')
    143. plt.xlabel('Class:1-3')
    144. plt.show()

    (2)Sonar数据集

    1. import numpy
    2. import pandas as pd
    3. import numpy as np
    4. import matplotlib.pyplot as plt
    5. path=r'sonar.all-data.txt'
    6. df = pd.read_csv(path, header=None, sep=',')
    7. def Fisher(X1, X2, n, t):
    8. # 各类样本均值向量
    9. m1 = np.mean(X1, axis=0)
    10. m2 = np.mean(X2, axis=0)
    11. m1 = m1.reshape(n, 1)
    12. m2 = m2.reshape(n, 1)
    13. m = m1 - m2
    14. # 样本类内离散度矩阵
    15. s1 = np.zeros((n, n)) # s1,s2此时均为数组
    16. s2 = np.zeros((n, n))
    17. if t == 0: # 第一种情况
    18. for i in range(0, 96):
    19. s1 += (X1[i].reshape(n, 1) - m1).dot((X1[i].reshape(n, 1) - m1).T)
    20. for i in range(0, 111):
    21. s2 += (X2[i].reshape(n, 1) - m2).dot((X2[i].reshape(n, 1) - m2).T)
    22. if t == 1: # 第二种情况
    23. for i in range(0, 97):
    24. s1 += (X1[i].reshape(n, 1) - m1).dot((X1[i].reshape(n, 1) - m1).T)
    25. for i in range(0, 110):
    26. s2 += (X2[i].reshape(n, 1) - m2).dot((X2[i].reshape(n, 1) - m2).T)
    27. # 总类内离散度矩阵
    28. sw = s1 + s2
    29. sw = np.mat(sw, dtype='float')
    30. m = numpy.mat(m, dtype='float')
    31. # 最佳投影方向
    32. w = np.linalg.inv(sw).dot(m)
    33. # 在投影后的一维空间求两类的均值
    34. m_1 = (w.T).dot(m1)
    35. m_2 = (w.T).dot(m2)
    36. # 计算分类阈值w0
    37. w0 = -0.5 * (m_1 + m_2)
    38. return w, w0
    39. def Classify(X,w,w0):
    40. y = (w.T).dot(X) + w0
    41. return y
    42. # 数据预处理
    43. Sonar = df.iloc[0:208,0:60]
    44. sonar = np.mat(Sonar)
    45. # 分十次计算准确率
    46. Accuracy = np.zeros(60)
    47. accuracy_ = np.zeros(10)
    48. for n in range(1,61):
    49. for t in range(10):
    50. sonar_random = (np.random.permutation(sonar.T)).T # 对原sonar数据进行每列打乱
    51. sonar1 = sonar_random[0:97, 0:n]
    52. sonar2 = sonar_random[97:208, 0:n]
    53. count = 0
    54. # 留一法验证准确性
    55. for i in range(208): # 取每一维度进行测试
    56. if i <= 96:
    57. test = sonar1[i]
    58. test = test.reshape(n, 1)
    59. train = np.delete(sonar1, i, axis=0)
    60. w, w0 = Fisher(train, sonar2, n, 0)
    61. if (Classify(test, w, w0)) >= 0:
    62. count += 1
    63. else:
    64. test = sonar2[i-97]
    65. test = test.reshape(n, 1)
    66. train = np.delete(sonar2, i-97, axis=0)
    67. w, w0 = Fisher(sonar1, train, n, 1)
    68. if (Classify(test, w, w0)) < 0:
    69. count += 1
    70. accuracy_[t] = count / 208
    71. for k in range(10):
    72. Accuracy[n - 1] += accuracy_[k]
    73. Accuracy[n - 1] = Accuracy[n - 1] / 10
    74. print("数据为%d维时,准确率为:%.3f" % (n, Accuracy[n - 1]))
    75. # 作图
    76. x = np.arange(1, 61, 1)
    77. plt.xlabel('dimension')
    78. plt.ylabel('Accuracy')
    79. plt.ylim((0.5, 0.8)) # y坐标的范围
    80. plt.plot(x, Accuracy, 'b')
    81. plt.show()

  • 相关阅读:
    【区间合并】挤牛奶
    企业搭建网站选择什么配置的云服务器比较合适?
    【Mysql】Mysql的数据类型
    图解神经网络的基本原理,神经网络基本结构说明
    Python语言学习:Python语言学习之面向对象编程OO(继承&封装&多态)/类&方法/装饰器的简介、案例应用之详细攻略
    【数据结构和算法初阶(C语言)】链表-单链表(手撕详讲单链表增删查改)
    少儿编程 电子学会图形化编程等级考试Scratch二级真题解析(判断题)2022年6月
    业务代码到底需不需要用多线程???
    ATtiny88初体验(七):TWI
    Python中的全局变量与命名法
  • 原文地址:https://blog.csdn.net/m0_61901200/article/details/133782168