• 岭回归和LASSO回归


    先说一下泛化正则化的概念,泛化是指已经训练好的机器学习模型在处理未遇到的样本时的表现,即模型处理新样本的能力。很多时候模型在训练集里猛如虎,在测试集上就很离谱(错误率很高),即泛化能力差。因为模型只学习了训练集上数据的特性,比如训练集都是白天的猫,很可能给一张黑夜的猫的照片它就分辨不出,这也叫过拟合。为了防止过拟合,提高泛化能力,正则化应运而生,它是指给需要训练的目标函数加上一些规则(限制),就是给损失函数后面加上正则项。常用的正则化方法分为L1正则化,L2正则化,使用的正则项分别表示L1范数和L2范数。更多细节可以参考这篇 秒懂正则化

    在原始的损失函数后添加正则项,可以减小模型学习到的参数 w w w,这样可以使模型的泛化能力更强。
    对参数空间进行L1范数正则化的线性模型称为LASSO回归(LASSO Regression);
    对参数空间进行L2范数正则化的线性模型称为岭回归(Ridge Regression)。

    岭回归和LASSO回归的不同之处
    随着正则变量 λ \lambda λ的改变,基于岭回归改进的多项式回归算法的拟合曲线始终是曲线,很难得到一条斜的直线;基于LASSO回归改进的多项式回归算法的拟合曲线会很快变成一条斜的曲线,最后变成一条几乎水平的直线

  • 相关阅读:
    线段树模板
    AJAX|AJAX基本用法
    SonarQube:质量阀值配置
    Android 11.0 无源码apk授予QUERY_ALL_PACKAGES权限
    cf edu #135 Div.2(A~C)
    文件的打开方式
    1. python学习基础
    Vuex使用和v-model语法详细教程
    gin框架中使用websocket发送消息及群聊
    C专家编程 第7章 对内存的思考 7.8 轻松一下---“Thing King”和“页面游戏”
  • 原文地址:https://blog.csdn.net/weixin_45116099/article/details/126196186