• sklearn机器学习——day14


    算法得出的结论,永远不是100%确定的,更多的是判断出了一种“样本的标签更可能是某类的可能 性”,而非一种“确定”。

    希望使用真正的概率来衡量可能性,因此就有了真正的概率算法:朴素贝叶斯

    朴素贝叶斯是一种直接衡量标签和特征之间的概率关系的有监督学习算法,是一种专注分类的算法。朴素贝叶斯的算 法根源就是基于概率论和数理统计的贝叶斯理论,因此它是根正苗红的概率模型。接下来,我们就来认识一下这个简 单快速的概率算法。

    概率论基础 - 贝叶斯理论等式

     瓢虫冬眠:理解条件概率

    瓢虫冬眠:理解P(Y|X) 

    对每一个样本

    推广到n个 上,则有:

     

    式子证明,在Y=1的条件下,多个特征的取值被同时取到的概率,就等于Y=1的条件下,多个特征的取值被分别 取到的概率相乘。

    贝叶斯的性质与最大后验估计

    朴素贝叶斯是一个不建模的算法。以往我们学的不建模算法,比如KMeans,比如PCA,都是无监督学习, 而朴素贝叶斯是第一个有监督的,不建模的分类算法。

     

    在最大后验估计中,我们只需要求解分子,主要是求解一 个样本下每个特征取值下的概率 ,再求连乘便能够获得相应的概率

    汉堡称重:连续型变量的概率估计 

    要处理连续型变量,我们可以有两种方法。第一种是把连续型变量分成 个箱,把连续型强行变成分类型变量

    当特征为连续型时,随机取到某一个事件发生的概率就为 0

    如果我们基于100个汉堡绘制直方图,并规定每4g为一个区间,横坐标为汉堡的重量的分布,纵坐标为这个区间上汉 堡的个数。

    sklearn中的朴素贝叶斯

     

    贝叶斯的接口调用的predict_proba其实也不是总指向真正的分类结果

    认识高斯朴素贝叶斯

     

    这个类包含两个参数:

     

    1. #展示我所使用的设备以及各个库的版本
    2. %%cmd
    3. pip install watermark
    4. #在这里必须分开cell,魔法命令必须是一个cell的第一部分内容
    5. #注意load_ext这个命令只能够执行一次,再执行就会报错,要求用reload命令
    6. %load_ext watermark
    7. %watermark -a "TsaiTsai" -d -v -m -p numpy,pandas,matplotlib,scipy,sklearn
    8. #导入需要的库和数据
    9. import numpy as np
    10. import matplotlib.pyplot as plt
    11. from sklearn.naive_bayes import GaussianNB
    12. from sklearn.datasets import load_digits
    13. from sklearn.model_selection import train_test_split
    14. digits = load_digits()
    15. X, y = digits.data, digits.target
    16. Xtrain,Xtest,Ytrain,Ytest = train_test_split(X,y,test_size=0.3,random_state=420)
    17. #建模,探索建模结果
    18. gnb = GaussianNB().fit(Xtrain,Ytrain)
    19. #查看分数
    20. acc_score = gnb.score(Xtest,Ytest)
    21. acc_score
    22. #查看预测结果
    23. Y_pred = gnb.predict(Xtest)
    24. #查看预测的概率结果
    25. prob = gnb.predict_proba(Xtest)
    26. prob.shape
    27. prob.shape #每一列对应一个标签下的概率
    28. prob[1,:].sum() #每一行的和都是一
    29. prob.sum(axis=1)
    30. #使用混淆矩阵来查看贝叶斯的分类结果
    31. from sklearn.metrics import confusion_matrix as CM
    32. CM(Ytest,Y_pred)
    33. #注意,ROC曲线是不能用于多分类的。多分类状况下最佳的模型评估指标是混淆矩阵和整体的准确度

    探索贝叶斯:高斯朴素贝叶斯擅长的数据集 

    注意这段代码曾经在决策树中详细讲解过,在SVM中也有非常类似的代码,核心就是构建分类器然后画决策边界,只 不过更换了需要验证的模型而已

    1. import numpy as np
    2. import matplotlib.pyplot as plt
    3. from matplotlib.colors import ListedColormap
    4. from sklearn.model_selection import train_test_split
    5. from sklearn.preprocessing import StandardScaler
    6. from sklearn.datasets import make_moons, make_circles, make_classification
    7. from sklearn.naive_bayes import GaussianNB
    8. h = .02
    9. names = ["Multinomial","Gaussian","Bernoulli","Complement"]
    10. classifiers = [MultinomialNB(),GaussianNB(),BernoulliNB(),ComplementNB()]
    11. X, y = make_classification(n_features=2, n_redundant=0, n_informative=2,
    12. random_state=1, n_clusters_per_class=1)
    13. rng = np.random.RandomState(2)
    14. X += 2 * rng.uniform(size=X.shape)
    15. linearly_separable = (X, y)
    16. datasets = [make_moons(noise=0.3, random_state=0),
    17. make_circles(noise=0.2, factor=0.5, random_state=1),
    18. linearly_separable
    19. ]
    20. figure = plt.figure(figsize=(6, 9))
    21. i = 1
    22. for ds_index, ds in enumerate(datasets):
    23. X, y = ds
    24. X = StandardScaler().fit_transform(X)
    25. X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=.4,
    26. random_state=42)
    27. x1_min, x1_max = X[:, 0].min() - .5, X[:, 0].max() + .5
    28. x2_min, x2_max = X[:, 1].min() - .5, X[:, 1].max() + .5
    29. array1,array2 = np.meshgrid(np.arange(x1_min, x1_max, 0.2),
    30. np.arange(x2_min, x2_max, 0.2))
    31. cm = plt.cm.RdBu
    32. cm_bright = ListedColormap(['#FF0000', '#0000FF'])
    33. ax = plt.subplot(len(datasets), 2, i)
    34. if ds_index == 0:
    35. ax.set_title("Input data")
    36. ax.scatter(X_train[:, 0], X_train[:, 1], c=y_train,
    37. cmap=cm_bright,edgecolors='k')
    38. ax.scatter(X_test[:, 0], X_test[:, 1], c=y_test,
    39. cmap=cm_bright, alpha=0.6,edgecolors='k')
    40. ax.set_xlim(array1.min(), array1.max())
    41. ax.set_ylim(array2.min(), array2.max())
    42. ax.set_xticks(())
    43. ax.set_yticks(())
    44. i += 1
    45. ax = plt.subplot(len(datasets),2,i)
    46. clf = GaussianNB().fit(X_train, y_train)
    47. score = clf.score(X_test, y_test)
    48. Z = clf.predict_proba(np.c_[array1.ravel(),array2.ravel()])[:, 1]
    49. Z = Z.reshape(array1.shape)
    50. ax.contourf(array1, array2, Z, cmap=cm, alpha=.8)
    51. ax.scatter(X_train[:, 0], X_train[:, 1], c=y_train, cmap=cm_bright,
    52. edgecolors='k')
    53. ax.scatter(X_test[:, 0], X_test[:, 1], c=y_test, cmap=cm_bright,
    54. edgecolors='k', alpha=0.6)
    55. ax.set_xlim(array1.min(), array1.max())
    56. ax.set_ylim(array2.min(), array2.max())
    57. ax.set_xticks(())
    58. ax.set_yticks(())
    59. if ds_index == 0:
    60. ax.set_title("Gaussian Bayes")
    61. ax.text(array1.max() - .3, array2.min() + .3, ('{:.1f}%'.format(score*100)),
    62. size=15, horizontalalignment='right')
    63. i += 1
    64. plt.tight_layout()
    65. plt.show()

     结果展示:

    探索贝叶斯:高斯朴素贝叶斯的拟合效果与运算速度 

    1. #首先导入需要的模块和库
    2. import numpy as np
    3. import matplotlib.pyplot as plt
    4. from sklearn.naive_bayes import GaussianNB
    5. from sklearn.svm import SVC
    6. from sklearn.ensemble import RandomForestClassifier as RFC
    7. from sklearn.tree import DecisionTreeClassifier as DTC
    8. from sklearn.linear_model import LogisticRegression as LR
    9. from sklearn.datasets import load_digits
    10. from sklearn.model_selection import learning_curve
    11. from sklearn.model_selection import ShuffleSplit
    12. from time import time
    13. import datetime
    14. #定义绘制学习曲线的函数
    15. def plot_learning_curve(estimator,title, X, y,
    16. ax, #选择子图
    17. ylim=None, #设置纵坐标的取值范围
    18. cv=None, #交叉验证
    19. n_jobs=None #设定索要使用的线程
    20. ):
    21. train_sizes, train_scores, test_scores = learning_curve(estimator, X, y
    22. ,cv=cv,n_jobs=n_jobs)
    23. ax.set_title(title)
    24. if ylim is not None:
    25. ax.set_ylim(*ylim)
    26. ax.set_xlabel("Training examples")
    27. ax.set_ylabel("Score")
    28. ax.grid() #显示网格作为背景,不是必须
    29. ax.plot(train_sizes, np.mean(train_scores, axis=1), 'o-'
    30. , color="r",label="Training score")
    31. ax.plot(train_sizes, np.mean(test_scores, axis=1), 'o-'
    32. , color="g",label="Test score")
    33. ax.legend(loc="best")
    34. return ax
    35. #导入数据,定义循环
    36. digits = load_digits()
    37. X, y = digits.data, digits.target
    38. X.shape
    39. X #是一个稀疏矩阵
    40. title = ["Naive Bayes","DecisionTree","SVM, RBF kernel","RandomForest","Logistic"]
    41. model = [GaussianNB(),DTC(),SVC(gamma=0.001)
    42. ,RFC(n_estimators=50),LR(C=.1,solver="lbfgs")]
    43. cv = ShuffleSplit(n_splits=50, test_size=0.2, random_state=0)
    44. #进入循环,绘制学习曲线
    45. fig, axes = plt.subplots(1,5,figsize=(30,6))
    46. for ind,title_,estimator in zip(range(len(title)),title,model):
    47. times = time()
    48. plot_learning_curve(estimator, title_, X, y,
    49. ax=axes[ind], ylim = [0.7, 1.05],n_jobs=4, cv=cv)
    50. print("{}:{}".format(title_,datetime.datetime.fromtimestamp(time()-
    51. times).strftime("%M:%S:%f")))
    52. plt.show()

    贝叶斯是速度很快,但分类效果一般,并且初次训练之后的结果就很接近算法极限 的算法,几乎没有调参的余地。也就是说,如果我们追求对概率的预测,并且希望越准确越好,那我们应该先选择逻 辑回归。如果数据十分复杂,或者是稀疏矩阵,那我们坚定地使用贝叶斯。如果我们分类的目标不是要追求对概率的 预测,那我们完全可以先试试看高斯朴素贝叶斯的效果(反正它运算很快速,还不需要太多的样本),如果效果很不 错,我们就很幸运地得到了一个表现优秀又快速的模型。如果我们没有得到比较好的结果,那我们完全可以选择再更 换成更加复杂的模型。 

     

  • 相关阅读:
    Postman接口测试实战
    Spring——bean的生命周期
    [Java基础揉碎]坦克大战 && java事件处理机制
    深入学习JVM底层(四):类文件结构
    蓝牙资讯|AirPods Pro将升级C口充电盒,耳机支持Find My是最大亮点
    编程题总结 --- 2018
    C++内存管理(3)——内存池
    从0开始搭建ELK日志收集系统
    看完这篇,你的API服务设计能力将再次进化!
    怎样翻译文本?这三种翻译方法我经常使用
  • 原文地址:https://blog.csdn.net/weixin_44267765/article/details/126958739