• 深度学习理论(李宏毅


    2022 - 再探宝可梦、数码宝贝分类器 — 浅谈机器学习原理_哔哩哔哩_bilibili

    more parameters, easier to overfit, why?

    但是怎么定这个有未知数的function呢、那通常假设你没有什么想法的话、往往你需要先对你的资料做一些观察、想象一下,假设有一个function可以成功的分类宝可梦跟数码宝贝、那这个function它应该长什么样子

    所以,开始进行机器学习之前,也许我们先对资料进行一些观察。

    好在经过一番观察以后。我发现 他们虽然长得很像,但其实还是有显著差异:画风不同

     

    很多package呢可以帮你把一个图片里面的线呢把它画出来。细节不重要,总之扣一个library自动会产生这种边线的图

    那怎么知道一张图片的边线比较简单还是复杂呢?算一下图里白色的pixel有多少

    e函数代表,线条的复杂程度

     func. f只有一个未知参数h

    这个func. f完全可以一般化到更复杂的情景,比如 h可以换成之前录音里讲过的θ

    未知参数 所有的可能性集合起来叫 H,他的可能性是你自己决定的,这里我们假设说做完边缘探测后白色点的数目不会超过1万,这里不需要考虑小数点

    |H| 在H里有多少可能的选择,这个数叫做  模型的复杂程度

    模型的复杂程度很高,代表说他现在定出来的这个含有未知数的func.里面,选择性很多

    接下来我们来定loss,

    首先要有资料, loss是根据资料计算出来的,

    给一个h,根据某一组dataset来计算loss

    训练资料集,有个假设,训练资料集里的每一笔资料,是从一个更大的资料里被sample出来的,sample的过程有一个限制叫i.i.d.,独立同分布,即 sample每一笔资料时 每笔之间是independent,每次sample时分布永远是固定的,

    有了D(train)之后,就可以找出一个h,让 用Dtrain所计算出的loss值 越小越好

    期待理想和现实越接近越好,理想是找到一个h(all),用在D(all)上得到一个loss

    h(train)和h(all)显然不同,因为是从不同的资料里找出来的,他们要minimize的loss func.是不一样的,loss func.不只是和h有关,也和define这个loss func.的资料有关

    h(all)是D(all)上最好的h,

    h(

  • 相关阅读:
    力扣 622.设计循环队列
    AWTK UI 自动化测试工具发布
    Dart 2.18 发布,Objective-C 和 Swift interop
    头歌-信息安全技术-【实训10】HTML信息隐藏、动态分析技术
    竞赛 深度学习 python opencv 动物识别与检测
    机器学习与计算机视觉 D2
    Spring_AOP
    在 MongoDB 中,如何配置副本集以实现读写分离?
    金融业务-房产业务
    Antiderivative
  • 原文地址:https://blog.csdn.net/linyuxi_loretta/article/details/127327104