• 【机器学习-周志华】学习笔记-第一章


    记录第一遍没看懂的
    记录觉得有用的
    其他章节:待续

    1.4 归纳偏好公式解析

    公式(1.1)解析

    Alt

            其中,E表示期望,下标ote表示“训练集外误差”(Out of Traing set Error),那么Eote(La|X,f)表示的就是给定数据集和真实目标函数的情况下,算法La的训练集外误差的计算方式
            范围x∈X-X,即样本空间数据减去训练集数据,也就是“训练集外”,那么P(x)就表示取到训练集外数据x的概率;指示函数中,h(x)≠f(x)表示假设值不等于真实值,即预测错误时,指示函数取1;P(h|X,La)表示已知数据集,通过算法得到的假设(算法内部有很多随机因素影响,h仍然是个概率事件)。
            简言之,就是数据集本身的概率乘以预测的对错乘以模型被得到的概率,你用到的数据和模型的所有可能性加起来,就是训练集外误差的期望。

    公式(1.2)解析

    在这里插入图片描述
            这个公式是对上面(1.1)的一个推导演化,相当于上式左右都求和。相当于假设每个可能的函数f出现的概率是均匀的,对这些可能求和。
            由于后续中,只有指示函数(h(x)≠f(x))中出现了f,因此,把∑f移到后面,∑h同理。
            X在上式中已经描述,是整个特征空间的样本,而|X|就表达特征空间中所有点的数量,对于二分类问题,空间中的每一个组合,都有两种可能,也就是2|X|,表示这个空间中,所有可能性的数量。我们的指示函数是在预测错误时取1,考虑到是按均匀分布,所以是1/2的概率。这样的话,最后一项相当于运算出来的一个常数。
            不论什么分布,所有的h的概率加起来一定是1,即∑h那一项实际等于1
    在这里插入图片描述
            这样综合推导,得到公式(1.2),可以看出,最后的公式已经与La无关了。(p.s.别忘了我们的假设,f按均匀分布,这个假设是不客观的)。
            这个定理的意义,在后文也揭示了:脱离具体问题,空泛地谈论"什么学习算法更好"毫无意义
    在这里插入图片描述

    数学真的看得脑壳痛QWQ

  • 相关阅读:
    【Shell牛客刷题系列】SHELL21 格式化输出:来看个printf命令的小彩蛋~
    一个合格的后端开发总要经历一次死锁吧
    System Verilog学习笔记(二十)——TCL基础
    selenium自动化测试环境安装教程
    Python GIL锁
    Win11系统安装安卓子系统教程
    实用篇-ES-DSL查询文档
    React Swiper.js使用(详细版)3D聚焦特效,自定义导航按钮等
    Android 平板、手机: 忘记密码处理及刷机处理技术贴(以三星为例)
    Flask——接口路由技术
  • 原文地址:https://blog.csdn.net/weixin_43476037/article/details/126325256