• 机器学习笔记之线性回归——从概率密度函数角度认识岭回归


    引言

    上一节介绍了 L 2 L_2 L2正则化在线性回归中的应用——岭回归。本节将从概率密度函数的角度重新认识岭回归。

    回顾

    极大似然估计与最大后验概率估计

    极大似然估计与最大后验概率估计中介绍过,先验分布表示进行试验之前,通过 以往经验或者认知 角度得到的概率分布。
    仍然以 投掷质地均匀硬币 为例,在我们投掷硬币之前,就已经在大脑中已经构思了一个概率分布:正面向上的概率=反面向上的概率=0.5
    极大似然估计只认准 存在即合理,完全不顾先验知识。从而在有限样本的情况下,其计算的概率分布结果相较于 考虑了先验分布的最大后验概率估计的准确性要差一些。
    示例:
    投掷10次质地均匀的硬币,投掷结果仅包含 正面向上反面向上 两种情况。投掷结果:正面向上 P ( U p ) = 0.7 P(Up) = 0.7 P(Up)=0.7,反面向上 P ( D o w n ) = 0.3 P(Down)=0.3 P(Down)=0.3。设概率模型 P ( X ∣ θ ) P(\mathcal X \mid \theta) P(Xθ),分别使用极大似然估计最大后验概率估计去计算投掷硬币事件的概率分布。

    • 极大似然估计:
      θ M L E = arg ⁡ max ⁡ θ log ⁡ P ( X ∣ θ ) = arg ⁡ max ⁡ θ log ⁡ [ θ 7 × ( 1 − θ ) 3 ] = 0.7 \theta_{MLE} = \mathop{\arg\max}\limits_{\theta}\log P(\mathcal X \mid \theta) = \mathop{\arg\max}\limits_{\theta} \log \left[\theta^7 \times (1 - \theta)^3 \right] = 0.7 θMLE=θargmaxlogP(Xθ)=θargmaxlog[θ7×(1θ)3]=0.7
    • 最大后验概率估计:
      令先验分布 P ( θ ) P(\theta) P(θ)是均值为0.5,方差为0.1的的高斯分布。
      θ M A P ∝ arg ⁡ max ⁡ θ P ( X ∣ θ ) P ( θ ) = arg ⁡ max ⁡ θ { [ θ 7 × ( 1 − θ ) 3 ] + 1 2 π × 0.1 e − ( θ − 0.5 ) 2 0.02 } ≈ 0.558 \theta_{MAP} \propto \mathop{\arg\max}\limits_{\theta} P(\mathcal X \mid \theta)P(\theta) = \mathop{\arg\max}\limits_{\theta}\left\{\left[\theta^7 \times (1-\theta)^3 \right] + \frac{1}{\sqrt{2\pi}\times 0.1}e^{-\frac{(\theta - 0.5)^2}{0.02}}\right\} \approx0.558 θMAPθargmaxP(Xθ)P(θ)=θargmax{[θ7×(1θ)3]+2π ×0.11e0.02(θ0.5)2}0.558

    观察上述两个结果,有先验分布参与的最大后验概率估计得到的概率模型参数 θ M A P \theta_{MAP} θMAP更接近常规思维下的认知。因此,在样本数量有限的情况下,最大后验概率估计对模型参数估计的准确性要优于极大似然估计先验分布在整个过程中起到的作用主要是矫正似然估计的偏差

    概率密度角度认识最小二乘法

    从概率密度函数角度认识最小二乘法中介绍过,最小二乘法求解最优模型参数本质上是基于标签/因变量噪声属于均值为0高斯分布极大似然估计结果。即:
    y = f ( W ) + ϵ = W T x ( i ) + ϵ ( i = 1 , 2 , ⋯   , N ) ϵ ∼ N ( μ , σ 2 ) → P ( y ( i ) ∣ x ( i ) ; W ) ∼ N ( W T x ( i ) + 0 , σ 2 ) ( i = 1 , 2 , ⋯   , N ) y = f(\mathcal W) +\epsilon = \mathcal W^{T}x^{(i)} +\epsilon(i=1,2,\cdots,N)\\ \epsilon \sim \mathcal N(\mu,\sigma^2) \to P(y^{(i)} \mid x^{(i)};\mathcal W) \sim \mathcal N(\mathcal W^{T}x^{(i)} + 0,\sigma^2)(i=1,2,\cdots,N) y=f(W)+ϵ=WTx(i)+ϵ(i=1,2,,N)ϵN(μ,σ2)P(y(i)x(i);W)N(WTx(i)+0,σ2)(i=1,2,,N)
    从上面公式中观察: x ( i ) ( i = 1 , 2 , ⋯   , N ) x^{(i)}(i=1,2,\cdots,N) x(i)(i=1,2,,N),它可以被视为与变量 W \mathcal W W进行线性计算的工具信息 x ( i ) x^{(i)} x(i)样本提供的已知信息,而不是变量;

    因此,干脆将 x ( i ) ( i = 1 , 2 , ⋯   , N ) x^{(i)}(i=1,2,\cdots,N) x(i)(i=1,2,,N)看做常量概率密度函数 P ( y ( i ) ∣ x ( i ) ; W ) P(y^{(i)} \mid x^{(i)};\mathcal W) P(y(i)x(i);W)化简为如下形式:
    P ( y ( i ) ∣ W ) = 1 2 π σ e − ( y ( i ) − W T x ( i ) ) 2 2 σ 2 ( i = 1 , 2 , ⋯   , N ) P(y^{(i)} \mid \mathcal W) = \frac{1}{\sqrt{2\pi}\sigma}e^{-\frac{\left(y^{(i) - \mathcal W^{T}x^{(i)}}\right)^2}{2\sigma^2}}(i=1,2,\cdots,N) P(y(i)W)=2π σ1e2σ2(y(i)WTx(i))2(i=1,2,,N)

    构建思路

    既然在有限样本条件下,最大后验概率估计方法能够得到 更符合认知的、更准确的 模型参数估计结果。而此时的最小二乘法只是一个基于极大似然估计的模型参数结果我们是否也可以通过最大后验概率估计方法去求解模型参数呢?

    自然是可以的。但是条件不足——没有关于模型参数 W \mathcal W W的先验分布。因此,我们对模型参数的先验分布进行假设:
    假设模型参数 W \mathcal W W服从均值为 μ 0 \mu_0 μ0,方差为 σ 0 2 \sigma_0^2 σ02的高斯分布。即:
    W ∼ N ( μ 0 , σ 0 2 ) \mathcal W \sim \mathcal N(\mu_0,\sigma_0^2) WN(μ0,σ02)
    那么关于模型参数 W \mathcal W W先验分布 P ( W ) P(\mathcal W) P(W)概率密度函数表示如下:
    P ( W ) = 1 2 π σ 0 e − ( W − μ 0 ) 2 2 σ 0 2 P(\mathcal W) = \frac{1}{\sqrt{2\pi}\sigma_0}e^{-\frac{(\mathcal W - \mu_0)^2}{2\sigma_0^2}} P(W)=2π σ01e2σ02(Wμ0)2

    推导过程:

    最大后验估计方法求解最优模型参数 W ^ M A P \hat {\mathcal W}_{MAP} W^MAP的角度观察,它的底层思想自然是贝叶斯定理。基于模型参数 W \mathcal W W的贝叶斯定理表示如下:
    X = { x ( i ) } ∣ i = 1 , 2 , ⋯   , N \mathcal X = \{x^{(i)}\}|_{i=1,2,\cdots,N} X={x(i)}i=1,2,,N理解为常量,不显示;
    P ( W ∣ Y ) = P ( Y ∣ W ) P ( W ) P ( Y ) P(\mathcal W \mid \mathcal Y) = \frac{P(\mathcal Y \mid \mathcal W)P(\mathcal W)}{P(\mathcal Y)} P(WY)=P(Y)P(YW)P(W)
    对应的最大后验概率估计表示如下:
    W ^ M A P = arg ⁡ max ⁡ W P ( Y ∣ W ) P ( W ) P ( Y ) \hat {\mathcal W}_{MAP} = \mathop{\arg\max}\limits_{\mathcal W} \frac{P(\mathcal Y \mid \mathcal W)P(\mathcal W)}{P(\mathcal Y)} W^MAP=WargmaxP(Y)P(YW)P(W)
    由于分母 P ( Y ) P(\mathcal Y) P(Y)不含 W \mathcal W W,因此上述公式等价于:
    W ^ M A P ∝ P ( Y ∣ W ) P ( W ) \hat{\mathcal W}_{MAP} \propto P(\mathcal Y \mid \mathcal W)P(\mathcal W) W^MAPP(YW)P(W)

    观察 P ( Y ∣ W ) P(\mathcal Y \mid \mathcal W) P(YW),它就是简化后的似然函数; P ( W ) P(\mathcal W) P(W)自然是假设的先验分布

    将上述公式展开,为计算方便,添加一个 log ⁡ \log log函数
    添加log函数原因详见传送门
    W ^ M A P ∝ arg ⁡ max ⁡ W [ log ⁡ ∏ i = 1 N P ( y ( i ) ∣ W ) P ( W ) ] = arg ⁡ max ⁡ W [ ∑ i = 1 N log ⁡ P ( y ( i ) ∣ W ) P ( W ) ] ˆWMAPargmax W^MAPWargmax[logi=1NP(y(i)W)P(W)]=Wargmax[i=1NlogP(y(i)W)P(W)]

    根据上述 P ( y ( i ∣ W ) , P ( W ) P(y^{(i} \mid \mathcal W),P(\mathcal W) P(y(iW),P(W)的分布进行展开:
    arg ⁡ max ⁡ W [ ∑ i = 1 N log ⁡ ( ( 1 2 π σ e − ( y ( i ) − W T x ( i ) ) 2 2 σ 2 ) ( 1 2 π σ 0 e − ( W − μ 0 ) 2 2 σ 0 2 ) ) ] arg ⁡ max ⁡ W ∑ i = 1 N log ⁡ ( 1 2 π σ ) + log ⁡ ( 1 2 π σ 0 ) + log ⁡ e − ( y ( i ) − W T x ( i ) ) 2 2 σ 2 + log ⁡ e − ( W − μ 0 ) 2 2 σ 0 2 \mathop{\arg\max}\limits_{\mathcal W}\left[\sum_{i=1}^N\log\left(\left(\frac{1}{\sqrt{2\pi}\sigma}e^{-\frac{\left(y^{(i)} - \mathcal W^{T}x^{(i)}\right)^2}{2\sigma^2}}\right)\left(\frac{1}{\sqrt{2\pi}\sigma_0}e^{-\frac{(\mathcal W - \mu_0)^2}{2\sigma_0^2}}\right)\right)\right] \\ \mathop{\arg\max}\limits_{\mathcal W}\sum_{i=1}^N \log\left(\frac{1}{\sqrt{2\pi}\sigma}\right) + \log\left(\frac{1}{\sqrt{2\pi}\sigma_0}\right) + \log e^{-\frac{\left(y^{(i)} - \mathcal W^{T}x^{(i)}\right)^2}{2\sigma^2}} + \log e^{-\frac{(\mathcal W - \mu_0)^2}{2\sigma_0^2}} Wargmax[i=1Nlog((2π σ1e2σ2(y(i)WTx(i))2)(2π σ01e2σ02(Wμ0)2))]Wargmaxi=1Nlog(2π σ1)+log(2π σ01)+loge2σ2(y(i)WTx(i))2+loge2σ02(Wμ0)2
    由于 log ⁡ ( 1 2 π σ ) \log\left(\frac{1}{\sqrt{2\pi}\sigma}\right) log(2π σ1) log ⁡ ( 1 2 π σ 0 ) \log\left(\frac{1}{\sqrt{2\pi}\sigma_0}\right) log(2π σ01)内部均不含 W \mathcal W W,因此其结果不影响 W \mathcal W W的取值。消掉; log ⁡ \log log e e e消掉,化简得:
    arg ⁡ max ⁡ W ∑ i = 1 N ( − ( y ( i ) − W T x ( i ) ) 2 2 σ 2 − ( W − μ 0 ) 2 2 σ 0 2 ) arg ⁡ min ⁡ W ∑ i = 1 N ( ( W − μ 0 ) 2 2 σ 0 2 + ( y ( i ) − W T x ( i ) ) 2 2 σ 2 ) Wargmaxi=1N(2σ2(y(i)WTx(i))22σ02(Wμ0)2)Wargmini=1N(2σ02(Wμ0)2+2σ2(y(i)WTx(i))2)

    整理一下分母,将整个式子乘以 2 σ 2 2\sigma^2 2σ2( σ \sigma σ不影响最优模型参数的求解):

    arg ⁡ min ⁡ W ∑ i = 1 N [ ( y ( i ) − W T x ( i ) ) 2 + σ 2 σ 0 2 ( W − μ 0 ) 2 ] \mathop{\arg\min}\limits_{\mathcal W} \sum_{i=1}^N \left[\left(y^{(i)} - \mathcal W^{T}x^{(i)}\right)^2 + \frac{\sigma^2}{\sigma_0^2}(\mathcal W - \mu_0)^2\right] Wargmini=1N[(y(i)WTx(i))2+σ02σ2(Wμ0)2]

    发现:当 μ 0 = 0 \mu_0=0 μ0=0时, ( W − μ 0 ) 2 = W 2 (\mathcal W - \mu_0)^2 = \mathcal W^2 (Wμ0)2=W2,由于 W \mathcal W W自身是 p p p维向量, W 2 \mathcal W^2 W2表示为:
    W 2 = W T W = w 1 2 + w 2 2 + ⋯ + w p 2 = ∣ ∣ W ∣ ∣ 2 2 \mathcal W^2 = \mathcal W^{T}\mathcal W = w_1^2 + w_2^2 + \cdots + w_p^2=||\mathcal W||_2^2 W2=WTW=w12+w22++wp2=∣∣W22

    λ = σ 2 σ 0 2 \lambda= \frac{\sigma^2}{\sigma_0^2} λ=σ02σ2最终表示结果为:
    W ^ M A P = arg ⁡ min ⁡ W ∑ i = 1 N [ ( y ( i ) − W T x ( i ) ) 2 + λ ∣ ∣ W ∣ ∣ 2 2 ] \hat {\mathcal W}_{MAP} = \mathop{\arg\min}\limits_{\mathcal W}\sum_{i=1}^N \left[\left(y^{(i)} - \mathcal W^{T}x^{(i)}\right)^2 + \lambda||\mathcal W||_2^2\right] W^MAP=Wargmini=1N[(y(i)WTx(i))2+λ∣∣W22]

    我们发现,岭回归可以理解为:概率模型 P ( Y ∣ W ) ∼ N ( W T X , σ 2 ) P(\mathcal Y \mid \mathcal W) \sim \mathcal N(\mathcal W^{T}\mathcal X,\sigma^2) P(YW)N(WTX,σ2),先验分布 P ( W ) ∼ N ( μ 0 = 0 , σ 0 2 ) P(\mathcal W) \sim \mathcal N(\mu_0 = 0,\sigma_0^2) P(W)N(μ0=0,σ02)条件下,使用最大后验概率估计方法去计算最优模型参数。 相比于极大似然估计方法的最小二乘法计算结果要更加准确

    在深度学习中,模型经过反向传播,每一次反向传播都会更新模型参数;而下一次更新结果都会以当前反向传播的更新结果作为先验分布,从而参与模型参数 W \mathcal W W的迭代更新

    相关参考:
    概率密度角度观察岭回归

  • 相关阅读:
    读书笔记: 这就是搜索引擎
    Java23种设计模式-创建型模式之原型模式
    Excel 插入和提取超链接
    50-C语言-输入n个数,并且从中输出奇数,按升序排列
    卷积神经网络分类流程图,卷积神经网络分类问题
    论文阅读笔记——A deep tree-based model for software defect prediction
    【开源】基于Vue.js的森林火灾预警系统的设计和实现
    java计算机毕业设计基于安卓Android微信的儿童疫苗接种管理小程序uniApp
    Nodejs path模块常用方法
    MES管理系统中,物料BOM为何如此重要
  • 原文地址:https://blog.csdn.net/qq_34758157/article/details/126443317