• 反向传播back propagation


    深度学习概述

    决定要怎么连接这些neuron的时候
    就已经确定了function set
    相比于之前做logistic regression,linear regression的时候,换一个方式来决定function set
    比较大,包含了logistic regression,linear regression没法包含的function

    全连接,full connect
    feedforward,前馈,正反馈
    input,hidden,output layer
    deep = many hidden layers
    neural network

    special structural 搞定这么深的network

    Matrix Operation 矩阵运算
    激活函数,sigmoid function
    GPU没有对neural network做什么特化,相比于cpu,加速了矩阵运算

    把output layer之前的部分,看作feature extractor :特征提取
    抽出一组特别好的 separable 可分的的特征
    这段是在介绍深度学习是怎么一层层计算的,和隐藏层合起来叫做什么

    sigmoid适用于二分类,softmax适用于多分类,输出的都是概率,可以把sigmoid看作softmax的特例
    根据不同参数形成不同函数,放到一起就是个函数集
    回答一下,output是任意纬度都是可行的,取决于你的网络设计
    因为输出本质上是和你想要变量有关的某种概率分布
    然后你的隐藏层最后一层是30纬度,输出层10纬度

    如果是二分类问题那output输出两个 多分类问题output取决于你打算分几类就有几个输出

    石头汤里的那个石头
    怎么决定layer的数码,每个layer中neuron的数目
    常识,需要一些domain knowledge

    过去做影像辨识的时候需要对影像抽取一些人定的feature,feature transform,有了deep learning之后,可以直接丢pixels硬做
    但是有个新的问题,需要design network的structure

    deep learning还是feature engineering看哪种情况下更容易
    影像辨识上deep learning比feature engineering要容易,人去识别太过潜意识了,离意识层次太远

    case by case:就事论事,具体问题具体分析;
    deep learning在nlp上performance没那么好,不那么work,人对文字处理 比较强,rule detect,一篇document是正面情绪还是负面

    layer连接的方法可以不这么相邻规律地连接吗?特殊接法,1连3,2连4,可以的
    convolutional neural network卷积神经网络

    cross entropy:交叉熵!!!!
    所有data的cross entropy求和,total loss
    在function set找一组function,或者说一组parameters,minimize total loss
    gradient decent!!!!

    几年前需要自己 implement back propagation,实现反向传播,现在有太多toolkit
    back propagation是算微分的比较有效的方式

    误差逆传播算法

    为什么要deep learning
    够多的training data去控制它的variance
    deep的必要何在?
    有个理论,任何连续的function,都可以用一个hidden layer的network来表示,只要这个hidden layer的neuron足够多,可以表示成任何的function

    deep learning?噱头?只是变宽就是fat network

    反向传播back propagation

    在这里插入图片描述
    反向传播算法是怎么让人工神经网络的训练更有效率的
    链式求导!!!!
    c是一笔data预测值和观测值的误差 L是把所有笔data的c加在一起

    对每一个参数的偏微分

    在这里插入图片描述

    梯度下降和back propagation的本质都是计算损失函数对参数的梯度,即对每一个参数的偏微分,最后一层的参数的梯度容易表示,直接用L对参数求导表示,如果要求损失函数对前面若干层中的参数求导,就要用到链式法则了,简单来说就是,L对参数求导 倒数第2层输出 对 倒数第2层的参数求导 * 倒数第3层输出 对 倒数第3层的参数求导……*
    再化简点, 倒数第 i 层输出 对 倒数第 i 层的参数求导,如 x* y=z, z对x求导就是y,是正向传播的翻转值
    递归什么的说法就是bullshit!!!
    加法

    在这里插入图片描述
    每一层是用forward pass

    在这里插入图片描述
    在这里插入图片描述

    z到C要经过复杂的process,通过train rule反向传播
    在这里插入图片描述
    在这里插入图片描述
    总价对各个参数的偏导
    在这里插入图片描述

  • 相关阅读:
    ShuffleNetV1:极致轻量化卷积神经网络(分组卷积+通道重排)
    代码随想录 | Day59
    零束科技获得中国信通院“2022 XOps产业生态峰会优秀案例”奖
    【MySQL系列】- LIKE查询 以%开头一定会让索引失效吗
    python之最简单的车辆检测(opencv方式)
    Mysql 分页,排序 打字练习
    反爬篇 | 手把手教你处理 JS 逆向之 CSS 偏移
    电脑显示系统错误怎么办?
    分析高数值孔径物镜的聚焦特性
    开源视频监控服务器Shinobi
  • 原文地址:https://blog.csdn.net/qq_51070956/article/details/133958951