最大后验估计MAP,是最常用的几个参数点估计之一,基本原理由贝叶斯定理而来,先看贝叶斯公式:
P
(
θ
∣
x
)
=
P
(
x
∣
θ
)
P
(
θ
)
P
(
x
)
P(\theta | x) = \frac{P(x|\theta)P(\theta)}{P(x)}
P(θ∣x)=P(x)P(x∣θ)P(θ)
其中,我们将
P
(
θ
)
P(\theta)
P(θ)称为先验概率,即在事情发生之前,根据以往的经验等推测未来此事件发生的概率。
将
P
(
θ
∣
x
)
称
为
后
验
概
率
,
即
在
事
情
发
生
之
后
,
分
析
各
种
原
因
导
致
发
生
的
概
率
P(\theta | x)称为后验概率,即在事情发生之后,分析各种原因导致发生的概率
P(θ∣x)称为后验概率,即在事情发生之后,分析各种原因导致发生的概率
P ( x ∣ θ ) P(x | \theta) P(x∣θ)就是极大似然估计MLE的例子。
贝叶斯分类器就是根据先验概率利用贝叶斯公式计算出来的各种分类的后验概率。选择最大的后验概率所对应的分类结果。
贝叶斯公式可以形象的写成:
后
验
概
率
=
似
然
函
数
×
先
验
概
率
数
据
分
布
后验概率 = \frac{似然函数 \times 先验概率}{数据分布}
后验概率=数据分布似然函数×先验概率
最大后验估计MAP,就是将后验概率取得最大值时待估计参数
θ
\theta
θ的值
θ
‘
\theta^`
θ‘ 作为参数的点估计。
这里
P
(
X
)
P(X)
P(X)与参数
θ
\theta
θ没有关系,因此,我们只要求分子最大即可。即:
θ
^
M
A
P
=
a
r
g
m
a
x
θ
P
(
X
∣
θ
)
×
p
(
θ
)
P
(
X
)
=
a
r
g
m
a
x
θ
P
(
X
∣
θ
)
P
(
θ
)
=
a
r
g
m
a
x
θ
L
(
θ
∣
X
)
+
l
o
g
p
(
θ
)
=
a
r
g
m
a
x
θ
∑
x
∈
X
l
o
g
p
(
x
∣
θ
)
+
l
o
g
p
(
θ
)
\hat{\theta}_{MAP} = argmax_{\theta}\frac{P(X|\theta)\times p(\theta)}{P(X)} \\ =argmax_{\theta}P(X|\theta)P(\theta) \\ =argmax_{\theta}{L(\theta | X) + logp(\theta)} \\=argmax_{\theta}{\sum_{x \in X}logp(x | \theta) + logp(\theta)}
θ^MAP=argmaxθP(X)P(X∣θ)×p(θ)=argmaxθP(X∣θ)P(θ)=argmaxθL(θ∣X)+logp(θ)=argmaxθx∈X∑logp(x∣θ)+logp(θ)
慢慢的自己理解,学会将最大后验概率估计,学会了解其点估计,
将其慢慢的全部估计完整都行啦的样子与打算,估计其参数都行啦的回事与打算。
会自己使用最大化后验概率MAP。