• 卷积神经网络基础补充



    前言

    随着人工智能的不断发展,机器学习这门技术也越来越重要,很多人都开启了学习机器学习,本文就介绍了机器学习的基础内容。来源于哔哩哔哩博主“霹雳吧啦Wz”,博主学习作为笔记记录,欢迎大家一起讨论学习交流。


    一、输出的计算

    示例:pandas 是基于NumPy 的一种工具,该工具是为了解决数据分析任务而创建的。
    参数解释:
    x1,x2表示第一层输入;中间代表隐层,隐层有三个节点;y1,y2为最后一层输出层。中间sigmoid表示激活函数。
    w11(1):下标11当中的第一个1表示上一个输入层的第几个节点,w11(1)就表示上一个层的第一个的节点x1。
    w11(1):下标11当中的第二个1表示本层当中的第几个节点,w11(1)就表示本层当中的第一个的节点1。
    w11(1):上标1表示第一层,第二层…。w11(1)就表示本层(隐层),第一层(隐层)。

    在这里插入图片描述

    在这里插入图片描述

    同理可以得出最后一层的输出,对应激励与权重相乘再相加,再加上相应的偏置。最后一层没有使用sigmoid激活函数,通常情况下,计算多维损失,最后一层统一使用softmax函数。
    在这里插入图片描述

    二、误差的计算

    在这里插入图片描述
    softmax满足分布和为1,但sigmoid函数并不满足此特性。大部分使用softmax函数,即输出指定是某一个确定的类别,而不是和其他类别的相似类别。即假设猫狗二分类问题,我们希望输出要么是猫,要么是狗,使用softmax函数;假设人和男人分类问题,可能一张图片可能是人,也可能是男人,二者有相似的东西。

    在这里插入图片描述

    三、误差的反向传播

    得到损失,接下来进行误差的方向传播。以w11(2)为例求解损失梯度。计算loss对其的偏导,根据链式法则,loss先对y1求导,然后y1再对w11(2)求导。loss又是包含o1和o2,所以loss对y1的求导可以转化为loss对o1,o1对y1;loss对o2,o2对y1。
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    即把所求的误差反向传播到了每一个节点,得到每一个节点的损失梯度。

    四、权重的更新

    在这里插入图片描述
    在这里插入图片描述在这里插入图片描述
    在这里插入图片描述
    1.易受噪声影响比如训练集标记错误,训练出来的结果有问题。
    2.局部最优解:每一批数据随机分批次进行。
    在这里插入图片描述
    考虑了当前时刻和过去时刻的梯度方向,有效抑制噪声的干扰。在这里插入图片描述
    st是对损失梯度进行平方求和,st变大,a变小。
    在这里插入图片描述
    相比于Adagrad优化器,增加了两个系数控制衰减速度。

    在这里插入图片描述

    在这里插入图片描述

  • 相关阅读:
    关于个体工商户的15个财税要点,你清楚吗?
    JavaScript栈的实现与解题
    分布式存储系统之Ceph集群部署
    高压放大器在软体机器人领域的应用
    tokenizers总结
    pytorch建模的三种方式
    造轮子之菜单管理
    华为云云耀云服务器 L 实例评测:快速建站的新选择,初创企业和开发者的理想之选
    对话ChatGPT:AIGC时代下,分布式存储的应用与前景
    MySQL
  • 原文地址:https://blog.csdn.net/qq_45825952/article/details/126892943