• 【课程作业】西瓜书 机器学习课后习题 : 第八章


    在这里插入图片描述

    简介

    Hello!
    非常感谢您阅读海轰的文章,倘若文中有错误的地方,欢迎您指出~
     
    ଘ(੭ˊᵕˋ)੭
    昵称:海轰
    标签:程序猿|C++选手|学生
    简介:因C语言结识编程,随后转入计算机专业,获得过国家奖学金,有幸在竞赛中拿过一些国奖、省奖…已保研
    学习经验:扎实基础 + 多做笔记 + 多敲代码 + 多思考 + 学好英语!
     
    唯有努力💪
     
    本文仅记录自己感兴趣的内容

    说明

    作业要求:每章从课后习题中选取3道题做就可以了

    答案来源:题目的解答过程来自于网络,依据个人所学进行了一些修改、总结

    仅供参考

    8.1

    假设抛硬币正面朝上的概率为p,反面朝上的概率为1一p。令H(n)代表抛次硬币所得正面朝上的次数则最多k次正面朝上的概率为
    在这里插入图片描述

    答:

    在这里插入图片描述

    8.4

    GradientBoosting[Friedman,2001]是一种常用的Boosting算法,试析其与AdaBoost的异同.

    答:GradientBoosting与AdaBoost相同的地方在于都会生成多个分类器以及每个分类器都有一个对应的权值,最后将所有分类器加权累加起来。
    不同在于:AdaBoost通过每个分类器的分类结果改变每个样本的权值用于新的分类器和生成权值,但不改变每个样本。GradientBoosting将每个分类器对样本的预测值与真实值的差值传入下一个分类器来生成新的分类器和权值,而每个样本的权值不变。

    8.8

    MultiBoosting算法Webb,2000]将AdaBoost作为Bagging的基学习器,Iterative Bagging算法[Breiman,200lb]则是将Bagging作为AdaBoost的基学习器.试比较二者的优缺点.

    答:MultiBoosting由于集合了Bagging,Wagging,AdaBoost,可以有效的降低误差和方差,特别是误差,但是训练成本和预测成本都会显著增加。Iterative Bagging相比Bagging会降低误差,但是方差上升。由于Bagging本身就是一种降低方差的算法,所以Iterative Bagging相当于Bagging与单分类器的折中。

    结语

    文章仅作为个人学习笔记记录,记录从0到1的一个过程

    希望对您有一点点帮助,如有错误欢迎小伙伴指正

    在这里插入图片描述

  • 相关阅读:
    ELK日志采集平台(四)---轻量级采集工具metricbeat
    AQS是什么?AbstractQueuedSynchronizer之AQS原理及源码深度分析
    LeetCode(算法)- 343. 整数拆分
    基于UNI-APP实现适配器并保证适配器和实现的调用一致
    P1091 [NOIP2004 提高组] 合唱队形
    ElementUI浅尝辄止37:Select 选择器
    vue3实现塔罗牌翻牌
    【高性能计算】NCNN源码解析笔记之
    Jenkins中Node节点与构建任务
    以技术面试官的经验分享毕业生及三年以下的程序员通过面试的技巧
  • 原文地址:https://blog.csdn.net/weixin_44225182/article/details/126655600