• 一文读懂先验概率和后验概率


    一文读懂先验概率和后验概率(超简单)

            先简单看看公式的定义:
            先验概率: P ( c )
            后验概率: P ( c | x)
            条件概率: P ( x | c)

            参数的含义:
            c: 某类样本
            x: 样本c的某个或者某组属性


    我们来看看周志华老师的《机器学习》中的一个例子:
            ①我们有一组西瓜数据集👇:
    在这里插入图片描述
            ②我们需要对下面这个西瓜样本进行好/坏测试(样本记为“测试1”)👇:
    在这里插入图片描述        即这个样本中的属性(色泽、根蒂、敲声等)就是我们之前的参数x。也就是我们要根据这个x估计我们的样本类别c(好瓜还是坏瓜)= 之前提到的后验概率P ( c | x) 。
            ③利用贝叶斯公式进行估计:
    在这里插入图片描述
            不难发现基于贝叶斯公式来估计后验概率 P(c I x) 的主要用难在于: 类条件概率 P(x I c) 是所有属性上的联合概率,难以从有限的训练样本直接估计而得。为避开这个障碍,朴素贝叶斯分类器(naÏve Bayes classifier) 采用了"属性条件独立性假设" (attribute conditional ependence assu’mption):对已知类别,假设所有属性相互独立。换言之,假设每个属性独立地对分类结果发生影响。于是就可以重写上面的贝叶斯公式:
    在这里插入图片描述
            ④具体计算步骤:
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

    注:以上图片均来自于周志华老师编著的《机器学习》教材中
  • 相关阅读:
    suricata的InspectEngine
    【附源码】Python计算机毕业设计民宿预定管理系统
    python异常及解决方法汇总
    Docker 环境 Nacos2 MySQL8
    BPMN是什么
    面试官:Spring中获取Bean有几种方式?
    Java中的虚拟机栈
    金仓数据库 KingbaseES 插件identity_pwdexp
    TensorFlow 2.x
    Intellij Idea 配置Tomcat(图文详解)
  • 原文地址:https://blog.csdn.net/shizuguilai/article/details/127415220