• 【机器学习-周志华】学习笔记-第八章


    记录第一遍没看懂的
    记录觉得有用的
    其他章节:
            第一章
            第三章
            第五章
            第六章
            第七章
            第八章
            第九章
            第十章
            十一章
            十二章
            十三章
            十四章
            十五章
            十六章

    8.1 个体与集成

    在这里插入图片描述
    在这里插入图片描述
            这个式子指学习器有k=0到T/2个做对了的情况的概率加到一起的总概率

    Boosting

    在这里插入图片描述
            1.每一个样本点的预测误差的权重先设为1/m
            2.循环
            3.基学习算法在当前的样本D上,根据当前的样本分布得到当前的基学习器
            4.误差 ϵ t \epsilon_t ϵt是当前这个基学习器在训练集上的误差
            5.如果错误率大于0.5,说明太差了,不继续了
            6.如果小于0.5了,给当前的基学习器一个权重 α t \alpha_t αt(在公式8.9-8.11中推导)
            7.对于对的样本乘以一个小于1的数,对于做错的样本乘以大于1的数,这样是希望最后加起来权重还是等于1。这样得到新的分布了。

    8.5 多样性

            学习器 h i h_i hi的分歧:
    在这里插入图片描述
    A ˉ = ∑ i = 1 T w i ( h i ( x ) − H ( x ) ) 2 = ∑ i = 1 T w i ( ( h i ( x ) − f ( x ) ) − ( H ( x ) − f ( x ) ) ) 2 = ∑ i = 1 T w i E ( h i ∣ x ) − 2 ∑ i = 1 T w i ( h i ( x ) − f ( x ) ) ( H ( x ) − f ( x ) ) + ∑ i = 1 T w i E ( H ∣ x ) = ∑ i = 1 T w i E ( h i ∣ x ) − 2 ( H ( x ) − f ( x ) ) ( H ( x ) − f ( x ) ) + E ( H ∣ x ) = ∑ i = 1 T w i E ( h i ∣ x ) − E ( H ∣ x ) = E ˉ − E ˉA=Ti=1wi(hi(x)H(x))2=Ti=1wi((hi(x)f(x))(H(x)f(x)))2=Ti=1wiE(hi|x)2Ti=1wi(hi(x)f(x))(H(x)f(x))+Ti=1wiE(H|x)=Ti=1wiE(hi|x)2(H(x)f(x))(H(x)f(x))+E(H|x)=Ti=1wiE(hi|x)E(H|x)=ˉEE Aˉ=i=1Twi(hi(x)H(x))2=i=1Twi((hi(x)f(x))(H(x)f(x)))2=i=1TwiE(hix)2i=1Twi(hi(x)f(x))(H(x)f(x))+i=1TwiE(Hx)=i=1TwiE(hix)2(H(x)f(x))(H(x)f(x))+E(Hx)=i=1TwiE(hix)E(Hx)=EˉE

  • 相关阅读:
    记录一下Java中关于引用的用法
    嵌入式IDE(1):IAR中ICF链接文件详解和实例分析
    Python基础语法
    文本处理之xml
    Numpy数组处理(二)
    速取!最好用的家居行业解决方案来了!
    大学四年庸庸碌碌,我弯道超车上了软件测试
    用Nginx搭建一个具备缓存功能的反向代理服务
    基于Python实现的图形绘制系统
    2 创建svelte项目(应用程序)
  • 原文地址:https://blog.csdn.net/weixin_43476037/article/details/126574399