• 最大后验估计MAP


    最大后验估计MAP,是最常用的几个参数点估计之一,基本原理由贝叶斯定理而来,先看贝叶斯公式:
    P ( θ ∣ x ) = P ( x ∣ θ ) P ( θ ) P ( x ) P(\theta | x) = \frac{P(x|\theta)P(\theta)}{P(x)} P(θx)=P(x)P(xθ)P(θ)

    其中,我们将 P ( θ ) P(\theta) P(θ)称为先验概率,即在事情发生之前,根据以往的经验等推测未来此事件发生的概率
    P ( θ ∣ x ) 称 为 后 验 概 率 , 即 在 事 情 发 生 之 后 , 分 析 各 种 原 因 导 致 发 生 的 概 率 P(\theta | x)称为后验概率,即在事情发生之后,分析各种原因导致发生的概率 P(θx)

    P ( x ∣ θ ) P(x | \theta) P(xθ)就是极大似然估计MLE的例子。

    贝叶斯分类器就是根据先验概率利用贝叶斯公式计算出来的各种分类的后验概率。选择最大的后验概率所对应的分类结果。

    贝叶斯公式可以形象的写成:
    后 验 概 率 = 似 然 函 数 × 先 验 概 率 数 据 分 布 后验概率 = \frac{似然函数 \times 先验概率}{数据分布} =×

    最大后验估计MAP,就是将后验概率取得最大值时待估计参数 θ \theta θ的值 θ ‘ \theta^` θ 作为参数的点估计。
    这里 P ( X ) P(X) P(X)与参数 θ \theta θ没有关系,因此,我们只要求分子最大即可。即:
    θ ^ M A P = a r g m a x θ P ( X ∣ θ ) × p ( θ ) P ( X ) = a r g m a x θ P ( X ∣ θ ) P ( θ ) = a r g m a x θ L ( θ ∣ X ) + l o g p ( θ ) = a r g m a x θ ∑ x ∈ X l o g p ( x ∣ θ ) + l o g p ( θ ) \hat{\theta}_{MAP} = argmax_{\theta}\frac{P(X|\theta)\times p(\theta)}{P(X)} \\ =argmax_{\theta}P(X|\theta)P(\theta) \\ =argmax_{\theta}{L(\theta | X) + logp(\theta)} \\=argmax_{\theta}{\sum_{x \in X}logp(x | \theta) + logp(\theta)} θ^MAP=argmaxθP(X)P(Xθ)×p(θ)=argmaxθP(Xθ)P(θ)=argmaxθL(θX)+logp(θ)=argmaxθxXlogp(xθ)+logp(θ)

    慢慢的自己理解,学会将最大后验概率估计,学会了解其点估计,
    将其慢慢的全部估计完整都行啦的样子与打算,估计其参数都行啦的回事与打算。
    会自己使用最大化后验概率MAP。

  • 相关阅读:
    python交叉熵nn.CrossEntropyLoss的计算过程及意义解释
    【云原生】Kubernetes学习笔记
    使用VMware安装系统Window、Linux操作系统
    LeetCode买卖股票之一:基本套路(122)
    使用 dlv 进行 debug
    优雅的在Vue3 Vite3中模仿element-plus的图标使用方式
    RT-Thread Studio学习(十二)W25Q128(SPI)的读写
    数组排序简介-计数排序(Counting Sort)
    【Java八股文总结】之面试题(三)
    第17章 标准库特殊设施【C++】
  • 原文地址:https://blog.csdn.net/kuxingseng123/article/details/127837703