码农知识堂 - 1000bd
  •   Python
  •   PHP
  •   JS/TS
  •   JAVA
  •   C/C++
  •   C#
  •   GO
  •   Kotlin
  •   Swift
  • Pytorch学习——梯度下降和反向传播 03 未完


    文章目录

    • 1 梯度是什么
    • 2 判断模型好坏的方法
    • 3 前向传播
    • 4 反向传播
    • 5 Pytorch中反向传播和梯度计算的方法
      • 5.1 前向计算
      • 5.2 梯度计算
      • 5.3 torch.data
      • 5.4 tensor.numpy

    1 梯度是什么

    通俗的来说就是学习(参数更新)的方向。
    简单理解,(对于低维函数来讲)就是导数(或者是变化最快的方向)

    2 判断模型好坏的方法

    1. 回归损失
      l o s s = ( Y p r e d i c t − Y t r u e ) 2 loss = (Y_{predict} - Y_{true})^2 loss=(Ypredict​−Ytrue​)2

    2. 分类损失

    l o s s = Y t r u e ⋅ l o g ( Y p r e d i c t ) loss = Y_{true} · log(Y_{predict}) loss=Ytrue​⋅log(Ypredict​)

    3 前向传播

    J ( a , b , c ) = 3 ( a + b c ) J(a, b, c) = 3(a + bc) J(a,b,c)=3(a+bc), 令 u = a + v u = a+v u=a+v, v = b c v = bc v=bc,把它绘制成计算图可以表示为:

    在这里插入图片描述
    绘制成计算图之后,可以清楚的看到前向计算的过程。

    4 反向传播

    对每个节点求偏导可以有:

    在这里插入图片描述
    反向传播就是一个从右到左的过程,自变量 a , b , c a,b,c a,b,c各自的骗到就是连线上梯度的乘积

    在这里插入图片描述

    5 Pytorch中反向传播和梯度计算的方法

    5.1 前向计算

    对于Pytorch中的一个tensor,如果设置它的属性, .require_grad=True ,那么会追踪对于该张量的所有操作。
    默认值为None

    import torch
    
    x = torch.ones(2, 2, requires_grad=True)
    print(x)
    
    y = x+2
    print(y)
    
    z = y*y*3
    print(z)
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10

    输出:

    tensor([[1., 1.],
            [1., 1.]], requires_grad=True)
    tensor([[3., 3.],
            [3., 3.]], grad_fn=<AddBackward0>)
    tensor([[27., 27.],
            [27., 27.]], grad_fn=<MulBackward0>)
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6

    总结:

    (1)之后的每次计算都会修改其grad_fn属性,用来记录做过的操作;
    (2)通过这个函数和grad_fn 可以生成计算图。


    • 注意

    为了防止跟踪历史记录,可以将代码包装在with torch.no_grad 中。表示不需要追中这一块的计算。

    import torch
    
    x = torch.ones(2, 2, requires_grad=True)
    print(x)
    
    y = x+2
    print(y)
    
    z = y*y*3
    print(z)
    
    with torch.no_grad():
        u = x+y+z
    
    print(u)
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    tensor([[1., 1.],
            [1., 1.]], requires_grad=True)
    tensor([[3., 3.],
            [3., 3.]], grad_fn=<AddBackward0>)
    tensor([[27., 27.],
            [27., 27.]], grad_fn=<MulBackward0>)
    tensor([[31., 31.],
            [31., 31.]])
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8

    5.2 梯度计算

    可以使用backward() 方法来进行反向传播,计算梯度 out.backward() ,此时能方便求出导数。

    调用x.grad() 可以获取导数值。

    注意:
    在输入是一个标量的情况下,可以调用输出tensor的backward()方法,但是在输出是一个向量的时候,调用backward时要传入其他参数。


    5.3 torch.data

    当tensor的require_grad 为false的时候,a.data 等同于 a

    当tensor的require_grad 为True的时候,a.data 表示仅仅获取其中的数据


    5.4 tensor.numpy

    require_grad=True 不能够直接转换,需要用torch.detach().numpy()

    detach相当于是深拷贝
    相当于把原来的tensor数据“抽离”出来,并部影响原来的tensor,然后进行深拷贝,转化为numpy数据。

  • 相关阅读:
    AI教程视频《AI illustrator入门到精通》零基础自学教程教学
    DNS部署与安全
    【sql】sql中true,false 和 null之间and、or运算的理解。
    [python 刷题] 128 Longest Consecutive Sequence
    Android Studio 实现登录注册-源代码 (连接MySql数据库)
    大数据第六天
    Vue2自定义插件的写法-Vue.use()
    【算法训练-链表 五】【求和】:链表相加(逆序)、链表相加II(顺序)
    深度学习自学笔记四:浅层神经网络(一)
    深度学习——循环神经网络
  • 原文地址:https://blog.csdn.net/weixin_42521185/article/details/126822143
  • 最新文章
  • 攻防演习之三天拿下官网站群
    数据安全治理学习——前期安全规划和安全管理体系建设
    企业安全 | 企业内一次钓鱼演练准备过程
    内网渗透测试 | Kerberos协议及其部分攻击手法
    0day的产生 | 不懂代码的"代码审计"
    安装scrcpy-client模块av模块异常,环境问题解决方案
    leetcode hot100【LeetCode 279. 完全平方数】java实现
    OpenWrt下安装Mosquitto
    AnatoMask论文汇总
    【AI日记】24.11.01 LangChain、openai api和github copilot
  • 热门文章
  • 十款代码表白小特效 一个比一个浪漫 赶紧收藏起来吧!!!
    奉劝各位学弟学妹们,该打造你的技术影响力了!
    五年了,我在 CSDN 的两个一百万。
    Java俄罗斯方块,老程序员花了一个周末,连接中学年代!
    面试官都震惊,你这网络基础可以啊!
    你真的会用百度吗?我不信 — 那些不为人知的搜索引擎语法
    心情不好的时候,用 Python 画棵樱花树送给自己吧
    通宵一晚做出来的一款类似CS的第一人称射击游戏Demo!原来做游戏也不是很难,连憨憨学妹都学会了!
    13 万字 C 语言从入门到精通保姆级教程2021 年版
    10行代码集2000张美女图,Python爬虫120例,再上征途
Copyright © 2022 侵权请联系2656653265@qq.com    京ICP备2022015340号-1
正则表达式工具 cron表达式工具 密码生成工具

京公网安备 11010502049817号