对随机变量的随机性的一个度量是它的熵(entropy),熵定义为:
如果,求这个熵,并说明它与PDF集中度的关系。观察到数据后,后验PDF的熵可以确定为:
且它应该比小。因此,通过观察得到的信息的度量是:
证明。在什么条件下,?
提示:把表示为:
另外,对于PDF , ,需要不等式:
当且仅当时,等式成立。
所以:
因此:
所以:
最终得到:
由题目条件,PDF约集中,也即是越小,此时对应的也就越小。换句话说,熵大的信号,具有较大的,或者越随机。
接下来求条件概率下的信息度量,因为:
所以:
其中利用
所以,当为概率密度,且也非负时,得到
而上式积分为零的条件得到:
也就表示此时和独立,此时,也就是后验概率和先验概率一致,此时没有提供额外的信息。
另外一个维度,如果,此时,也即是此时一定比小,换句话说,估计的就越集中,也就是MMSE估计量具有更小的方差。