• 应用统计-点估计法(1.矩估计 2.极大似然估计)


     样本源于总体,带有总体的特性.因此, 为了找到反映总体分布或反映总体特
    征的某个未知参数0,我们自然想到通过样本X_1,X_2,...,X构造某个统计量

    作为总体参数\theta的估计.相对于后面的区间估计而言,我们称这样的估计为参数的点估计, 而称由式给出的估计量为\theta的点估计量.若(x_1,x_2,..,x_n)为样本
    X_1,X_2,...,X的一个观测值,则称\widehat{\theta}(x_1,x_2,...,x_n)\theta的点估计值.
    下面介绍求参数点估计的两种方法.

    1.矩估计

     设X_1,X_2,...,X是来自总体X的样本,则由辛钦大数定律知,当总体的k阶原点矩EX^k 存在时,样本的K阶原点矩依概率收敛于总体k阶原点矩,即

     

     因此,我们自然用样本的k阶原点矩作为总体k阶原点矩的估计.

    \theta_1,\theta_2,...,\theta_r是反映总体分布或总体特征的r个未知参数,则总体的前r阶原点矩(设都存在)就应该是\theta_1,\theta_2,...,\theta_r的函数.令它们为相应的总体原点矩,即得矩估计方程组

     解之得未知参数\theta_1,\theta_2,...,\theta_r的矩估计量

     这种求参数\theta_1,\theta_2,...,\theta_r估计法称为矩估计法.

     

     

    本题补足:哪个是是矩估计量 哪个是矩估计值,没有标明清楚 

     

    本题求的只是矩估计量 

     

     2.极大似然估计估计

    设总体X是离散型随机变量,其分布律为

     其中\theta_1,\theta_2,...,\theta_r是未知参数. 设X1 , X2, … , 凡为来自总体X 的样本,
    x_1,x_2,...,x_n是一个样本观测值. 那么作为n维随机变量X_1,X_2,...,X_n在点
    x_1,x_2,...,x_n取值的概率(即n维随机变量X_1,X_2,...,X_n的联合分布律)为

     

     其中

    \theta_1,\theta_2,...,\theta_r从的函数,称为样本的似然函数极大似然估计法(也称最大似然估计
    )的直观想法就是:既然x_1,x_2,...,x_n作为样本的一次观测值已经出现,根据实
    际推断原理,\theta_1,\theta_2,...,\theta_r的选取就应有利于样本的观测值x_1,x_2,...,x_n出现,即
    我们应当选取这样的\theta_1,\theta_2,...,\theta_r使样本X_1,X_2,...,X_n得样本观测值
    x_1,x_2,...,x_n的概率(2. 6)或似然函数(2. 7)达到最大.即

     这样得到的估计与样本观测值有关,记作

     

     称为参数的极大似然估计值.

     的最大值点. 故在一般情况下\widehat{\theta_1},\widehat{\theta_2},...,\widehat{\theta_r}可从下面取极值的必要条件(称为对数似然方程组)解出.

     

     若总体X是连续型随机变量,其分布密度为

     

     其中\theta_1,\theta_2,...,\theta_r是未知参数,则随机变量X_1,X_2,...,X_n在点(x_1,x_2,...,x_n处微元内取值的概率为

     综上所述,可得极大似然估计法的估计步骤:

     

     之后补充

     之后补充

     之后补充

     证明之后补充

     应用参数点估计的上述两种方法时,要注意它们的条件.矩估计法的优点是简便、直观.特别是对总体的均值与方差进行估计时,并不一定要知道总体服从什么分布,但总体的矩有时可能会不存在,故矩估计法不一定有解.而应用极大似然法时,必须知道总体分布的形式才能进行.但进一步的研究表明,极大似然估计的大

  • 相关阅读:
    idea中引入新JDK环境
    Day15--加入购物车-初始化vuex
    【机器学习】主成分分析
    机器学习与深度学习的区别
    深度学习(二)
    如何配置百度地图应用访问白名单
    2022年10个最佳地理空间数据分析 GIS 软件
    stream流的常见使用
    vue--1.vue开发环境集成、基础指令、属性绑定
    传奇服务端如何添加地图
  • 原文地址:https://blog.csdn.net/fuxun222/article/details/127663013