• 卡尔曼滤波算法原理


    1 公式

    预测:
    X ^ k = A X ^ k − 1 + B k u k → \hat{X}_k = A \hat{X}_{k-1} + B_{k} \overrightarrow{u_k} X^k=AX^k1+Bkuk

    P k = A P k − 1 A T + Q P_k = A P_{k-1} A^T + Q Pk=APk1AT+Q

    修正:
    K k ′ = P k H T ( H P k H T + R ) − 1 K_k'=P_kH^T(H P_k H^T + R)^{-1} Kk=PkHT(HPkHT+R)1

    X ^ k ′ = X k ^ + K k ′ ( z k − H k X ^ k ) \hat{X}_k'=\hat{X_k}+K_k'(z_k-H_k\hat{X}_k) X^k=Xk^+Kk(zkHkX^k)

    P k ′ = P k − K k ′ H P k P_k' = P_k - K_k' H P_k Pk=PkKkHPk

    2 建模

    假设一辆汽车在直路上行驶,车内可以通过 GPS 定位获取自己的位置 p( ± 10 m \pm10m ±10m),也可以获取车速 v( ± 1 m / h \pm1m/h ±1m/h),同时车里的人会随机加速或减速,也能获得加速度 a( ± 1 m / s 2 \pm1m/s^2 ±1m/s2),我们的目的是通过对这些测量值的滤波让位置 p 的误差控制在 ± 1 m \pm1m ±1m 内。(模型中的测量误差均成正太分布)

    我们就用 kalman 的原理逐步推导,直观的了解其数学模型。首先,算法中最关键的其实是概率模型,也就是高斯分布(正太分布): N ( x , μ , σ 2 ) = 1 σ 2 π e − ( x − μ ) 2 2 σ 2 N(x,\mu,\sigma^2)=\frac{1}{\sigma \sqrt{2\pi}} e^{-\frac{(x-\mu)^2}{2 \sigma^2}} N(x,μ,σ2)=σ2π 1e2σ2(xμ)2, kalman filter 最终的估计值也就是一个概率分布,只是给外面使用的是其中的均值。在这个模型当中,我们假设估计值 X ^ = [ p v ] \hat{X}=

    [pv]" role="presentation">[pv]
    X^=[pv] (高斯分布的均值 μ \mu μ),对应的估计协方差为 P = [ Σ p p Σ p v Σ v p Σ v v ] P=
    [ΣppΣpvΣvpΣvv]" role="presentation">[ΣppΣpvΣvpΣvv]
    P=[ΣppΣvpΣpvΣvv]
    (高斯分布的方差 σ 2 \sigma^2 σ2)。

    注意: σ \sigma σ 是标准差, Σ \Sigma Σ 是方差, Σ = σ 2 \Sigma = \sigma^2 Σ=σ2

    预测

    预测取决于实际的物理模型, 这里用到的就是运动学方程:

    p k = p k − 1 + Δ t v k − 1 p_k = p_{k-1} + \Delta{tv_{k-1}} pk=pk1+Δtvk1

    v k = v k − 1 v_k = \quad \quad \quad \quad v_{k-1} vk=vk1

    即:

    X ^ k = [ 1 Δ t 0 1 ] X ^ k − 1 = A X ^ k − 1

    X^k=[1Δt01]X^k1=AX^k1" role="presentation">X^k=[1Δt01]X^k1=AX^k1
    X^k=[10Δt1]X^k1=AX^k1

    所以这里的 A A A 就是物理模型矩阵,用于预测出下一时刻的估计值。同样,协方差 P P P 也要经过物理模型的转换,更新协方差的公式如下:

    C o v ( x ) = Σ Cov(x) = \Sigma Cov(x)=Σ

    C o v ( A x ) = A Σ A T Cov(Ax) = A\Sigma A^T Cov(Ax)=AΣAT

    所以预测方程:

    X ^ k = A k X ^ k − 1 \hat{X}_k = A_k \hat{X}_{k-1} X^k=AkX^k1

    P k = A P k − 1 A T P_k = AP_{k-1}A^T Pk=APk1AT

    外部控制

    上面的预测是在匀速的情况下,没有外部干扰,如果踩油门或刹车带来了加速减速,那么会引入加速度 a a a,同样可以根据运动学方程来描述:
    p k = p k − 1 + Δ t v k − 1 + 1 2 a Δ t 2 p_k = p_{k-1} + \Delta{tv_{k-1}} + \frac{1}{2}a \Delta{t^2} pk=pk1+Δtvk1+21aΔt2

    v k = v k − 1 + a Δ t v_k = \quad \quad \quad \quad v_{k-1} + a \Delta{t} vk=vk1+aΔt

    即:

    X ^ k = A k X ^ k − 1 + [ Δ t 2 2 Δ t ] a = A k X k − 1 ^ + B k u k

    X^k=AkX^k1+[Δt22Δt]a=AkXk1^+Bkuk" role="presentation">X^k=AkX^k1+[Δt22Δt]a=AkXk1^+Bkuk
    X^k=AkX^k1+[2Δt2Δt]a=AkXk1^+Bkuk

    这里的 B k B_k Bk 就是外部控制矩阵,描述了外部控制量与估计值的物理关系, u k u_k uk 就是外部控制量。同时,外部控制量带来的影响也是呈高斯分布,其协方差为 Q Q Q,需要叠加到已预测的协方差当中,所以最终的预测方程组为:
    X ^ k = A X ^ k − 1 + B k u k \hat{X}_k = A \hat{X}_{k-1} + B_{k}u_k X^k=AX^k1+Bkuk

    P k = A P k − 1 A T + Q P_k = A P_{k-1} A^T + Q Pk=APk1AT+Q

    修正

    完成预测之后,我们需要通过传感器的测量值对其进行校正,由于预测值和测量值都是一个估计,都存在自己的 μ \mu μ σ 2 \sigma^2 σ2,修正这个环节就是融合两个估计值,得到新的 μ ′ \mu' μ σ ′ 2 \sigma'^2 σ2,即滤波器的最优估计: X ^ x ′ \hat{X}_x' X^x P k ′ P_k' Pk。如何融合两个高斯分布?方法很简单,直接把他们相乘,做归一化(概率和为1)。

    先使用一维高斯分布来分析,假设两个分布: N ( x , μ 0 , σ 0 2 ) N(x,\mu_0,\sigma_0^2) N(x,μ0,σ02) N ( x , μ 1 , σ 1 2 ) N(x,\mu_1,\sigma_1^2) N(x,μ1,σ12),使:

    N ( x , μ 0 , σ 0 2 ) ⋅ N ( x , μ 1 , σ 1 2 ) = N ( x , μ ′ , σ ′ 2 ) N(x,\mu_0,\sigma_0^2) \cdot N(x,\mu_1,\sigma_1^2) = N(x,\mu',\sigma'^2) N(x,μ0,σ02)N(x,μ1,σ12)=N(x,μ,σ2)

    N ( x , μ , σ 2 ) = 1 σ 2 π e − ( x − μ ) 2 2 σ 2 N(x,\mu,\sigma^2)=\frac{1}{\sigma \sqrt{2\pi}} e^{-\frac{(x-\mu)^2}{2 \sigma^2}} N(x,μ,σ2)=σ2π 1e2σ2(xμ)2 代入上式且做归一化,得到:

    μ ′ = μ 0 + σ 0 2 ( μ 1 − μ 0 ) σ 0 2 + σ 1 2 \mu'=\mu_0 + \frac{\sigma_0^2 (\mu_1 - \mu_0)}{\sigma_0^2 + \sigma_1^2} μ=μ0+σ02+σ12σ02(μ1μ0)

    σ ′ 2 = σ 0 2 − σ 0 4 σ 0 2 + σ 1 2 \sigma'^2 = \sigma_0^2 - \frac{\sigma_0^4}{\sigma_0^2 + \sigma_1^2} σ2=σ02σ02+σ12σ04

    把上式相同的部分提取出来,得到:

    k = σ 0 2 σ 0 2 + σ 1 2 k = \frac{\sigma_0^2}{\sigma_0^2 + \sigma_1^2} k=σ02+σ12σ02

    μ ′ = μ 0 + k ( μ 1 − μ 0 ) \mu' = \mu_0 + k(\mu_1 - \mu_0) μ=μ0+k(μ1μ0)

    σ ′ 2 = σ 0 2 − k σ 0 2 \sigma'^2 = \sigma_0^2 - k \sigma_0^2 σ2=σ02kσ02

    好,得到这个关系式基本就快结束了,我们再看需要融合的两个估计:

    • 预测估计: N ( x , H X ^ k , H P k H T ) N(x, H \hat{X}_k, HP_kH^T) N(x,HX^k,HPkHT),即 μ 0 = H k X ^ k \mu_0 = H_k \hat{X}_k μ0=HkX^k σ 0 2 = H P k H T \sigma_0^2 = HP_kH^T σ02=HPkHT
    • 测量估计: N ( x , z k , R ) N(x, z_k, R) N(x,zk,R),即 μ 1 = z k \mu_1 = z_k μ1=zk σ 1 2 = R \sigma_1^2 = R σ12=R

    在上式中,你可能存在疑问,为什么预测估计中要加入 H H H 转换矩阵?其实我们做融合的前提是两个估计处于同一尺度,例如一个估计是预测的路程,一个估计是测量的耗油量,它们在数值没有直接的关联,融合之后也不存在意义,所以要把路程换算成耗油量再去做融合才有意义,融合之后的值就是耗油量的最优估计,这里的转换就是 H H H,称之为测量转换矩阵,把预测值的尺度转换为测量值的尺度。你可能还会有疑问,我们建模中的预测和测量是同一尺度啊?是的,同一尺度给 H H H 赋值为 1 就可以了。

    我们把两个估计代入高斯融合的关系式,得到:

    K = H P k H T H P k H T + R K = \frac{HP_kH^T}{HP_kH^T + R} K=HPkHT+RHPkHT

    H X ^ k ′ = H X ^ k + K ( z k − H X ^ k ) H\hat{X}_k' = H \hat{X}_k + K(z_k - H \hat{X}_k) HX^k=HX^k+K(zkHX^k)

    H P k ′ H T = H P k H T − K H P k H T HP'_kH^T = HP_kH^T - K H P_k H^T HPkHT=HPkHTKHPkHT

    化简上面三个式子,等式两边同时左乘 H T H^T HT
    H T K = P k H T H P k H T + R H^TK = \frac{P_kH^T}{HP_kH^T + R} HTK=HPkHT+RPkHT

    X ^ k ′ = X ^ k + H T K ( z k − H X ^ k ) \hat{X}_k' = \hat{X}_k + H^T K(z_k - H \hat{X}_k) X^k=X^k+HTK(zkHX^k)

    P k ′ = P k − H T K H P k P'_k = P_k - H^T K H P_k Pk=PkHTKHPk

    使 K k ′ = H T K K'_k = H^T K Kk=HTK, 所以最终的修正公式为:

    K k ′ = P k H T ( H P k H T + R ) − 1 K_k'=P_kH^T(H P_k H^T + R)^{-1} Kk=PkHT(HPkHT+R)1

    X ^ k ′ = X k ^ + K k ′ ( z k − H k X ^ k ) \hat{X}_k'=\hat{X_k}+K_k'(z_k-H_k\hat{X}_k) X^k=Xk^+Kk(zkHkX^k)

    P k ′ = P k − K k ′ H P k P_k' = P_k - K_k' H P_k Pk=PkKkHPk

    大功告成!

  • 相关阅读:
    前端面试基础面试题——7
    「学习笔记」gdb 调试的简单操作
    Linux下的动态库注入
    【MySQL】insert和select单表查询详解(包含大量示例,看了必会)
    Duchefa丨P1001植物琼脂中英文说明书
    C语言——qsort()函数_学习笔记
    源码构建LAMP环境-1
    计算机系统基础实验——数据的机器级表示(计算浮点数 f 的绝对值[f])
    一文带你看透短信验证码
    TrueType字体文件提取关键信息
  • 原文地址:https://blog.csdn.net/qq_33236581/article/details/128176344