• 人工智能基础第三次作业


    课上例题
    完整代码

    # https://blog.csdn.net/qq_41033011/article/details/109325070
    # https://github.com/Darwlr/Deep_learning/blob/master/06%20Pytorch%E5%AE%9E%E7%8E%B0%E5%8F%8D%E5%90%91%E4%BC%A0%E6%92%AD.ipynb
    # torch.nn.Sigmoid(h_in)
     
    import torch
     
    x1, x2 = torch.Tensor([0.5]), torch.Tensor([0.3])
    y1, y2 = torch.Tensor([0.23]), torch.Tensor([-0.07])
    print("=====输入值:x1, x2;真实输出值:y1, y2=====")
    print(x1, x2, y1, y2)
    w1, w2, w3, w4, w5, w6, w7, w8 = torch.Tensor([0.2]), torch.Tensor([-0.4]), torch.Tensor([0.5]), torch.Tensor(
        [0.6]), torch.Tensor([0.1]), torch.Tensor([-0.5]), torch.Tensor([-0.3]), torch.Tensor([0.8])  # 权重初始值
    w1.requires_grad = True
    w2.requires_grad = True
    w3.requires_grad = True
    w4.requires_grad = True
    w5.requires_grad = True
    w6.requires_grad = True
    w7.requires_grad = True
    w8.requires_grad = True
     
     
    def sigmoid(z):
        a = 1 / (1 + torch.exp(-z))
        return a
     
     
    def forward_propagate(x1, x2):
        in_h1 = w1 * x1 + w3 * x2
        out_h1 = sigmoid(in_h1)  # out_h1 = torch.sigmoid(in_h1)
        in_h2 = w2 * x1 + w4 * x2
        out_h2 = sigmoid(in_h2)  # out_h2 = torch.sigmoid(in_h2)
     
        in_o1 = w5 * out_h1 + w7 * out_h2
        out_o1 = sigmoid(in_o1)  # out_o1 = torch.sigmoid(in_o1)
        in_o2 = w6 * out_h1 + w8 * out_h2
        out_o2 = sigmoid(in_o2)  # out_o2 = torch.sigmoid(in_o2)
     
        print("正向计算:o1 ,o2")
        print(out_o1.data, out_o2.data)
     
        return out_o1, out_o2
     
     
    def loss_fuction(x1, x2, y1, y2):  # 损失函数
        y1_pred, y2_pred = forward_propagate(x1, x2)  # 前向传播
        loss = (1 / 2) * (y1_pred - y1) ** 2 + (1 / 2) * (y2_pred - y2) ** 2  # 考虑 : t.nn.MSELoss()
        print("损失函数(均方误差):", loss.item())
        return loss
     
     
    def update_w(w1, w2, w3, w4, w5, w6, w7, w8):
        # 步长
        step = 1
        w1.data = w1.data - step * w1.grad.data
        w2.data = w2.data - step * w2.grad.data
        w3.data = w3.data - step * w3.grad.data
        w4.data = w4.data - step * w4.grad.data
        w5.data = w5.data - step * w5.grad.data
        w6.data = w6.data - step * w6.grad.data
        w7.data = w7.data - step * w7.grad.data
        w8.data = w8.data - step * w8.grad.data
        w1.grad.data.zero_()  # 注意:将w中所有梯度清零
        w2.grad.data.zero_()
        w3.grad.data.zero_()
        w4.grad.data.zero_()
        w5.grad.data.zero_()
        w6.grad.data.zero_()
        w7.grad.data.zero_()
        w8.grad.data.zero_()
        return w1, w2, w3, w4, w5, w6, w7, w8
     
     
    if __name__ == "__main__":
     
        print("=====更新前的权值=====")
        print(w1.data, w2.data, w3.data, w4.data, w5.data, w6.data, w7.data, w8.data)
     
        for i in range(1):
            print("=====第" + str(i) + "轮=====")
            L = loss_fuction(x1, x2, y1, y2) # 前向传播,求 Loss,构建计算图
            L.backward()  # 自动求梯度,不需要人工编程实现。反向传播,求出计算图中所有梯度存入w中
            print("\tgrad W: ", round(w1.grad.item(), 2), round(w2.grad.item(), 2), round(w3.grad.item(), 2),
                  round(w4.grad.item(), 2), round(w5.grad.item(), 2), round(w6.grad.item(), 2), round(w7.grad.item(), 2),
                  round(w8.grad.item(), 2))
            w1, w2, w3, w4, w5, w6, w7, w8 = update_w(w1, w2, w3, w4, w5, w6, w7, w8)
     
        print("更新后的权值")
        print(w1.data, w2.data, w3.data, w4.data, w5.data, w6.data, w7.data, w8.data)
    
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32
    • 33
    • 34
    • 35
    • 36
    • 37
    • 38
    • 39
    • 40
    • 41
    • 42
    • 43
    • 44
    • 45
    • 46
    • 47
    • 48
    • 49
    • 50
    • 51
    • 52
    • 53
    • 54
    • 55
    • 56
    • 57
    • 58
    • 59
    • 60
    • 61
    • 62
    • 63
    • 64
    • 65
    • 66
    • 67
    • 68
    • 69
    • 70
    • 71
    • 72
    • 73
    • 74
    • 75
    • 76
    • 77
    • 78
    • 79
    • 80
    • 81
    • 82
    • 83
    • 84
    • 85
    • 86
    • 87
    • 88
    • 89
    • 90

    对比【作业3】和【作业2】的程序,观察两种方法结果是否相同?如果不同,哪个正确?
    作业二的结果:
    请添加图片描述
    作业三结果:
    请添加图片描述
    可以发现,两个答案不同,作业三的答案是正确的。

    【作业2】程序更新(保留【作业2中】的错误答案,留作对比。新程序到作业3。)
    新的代码

    
    import numpy as np
    
    w1, w2, w3, w4, w5, w6, w7, w8 = 0.2, -0.4, 0.5, 0.6, 0.1, -0.5, -0.3, 0.8
    x1, x2 = 0.5, 0.3
    y1, y2 = 0.23, -0.07
    print("输入值 x0, x1:", x1, x2)
    print("输出值 y0, y1:", y1, y2)
    
    
    def sigmoid(z):
        a = 1 / (1 + np.exp(-z))
        return a
    
    
    def forward_propagate(x1, x2, y1, y2, w1, w2, w3, w4, w5, w6, w7, w8):
        in_h1 = w1 * x1 + w3 * x2
        out_h1 = sigmoid(in_h1)
        in_h2 = w2 * x1 + w4 * x2
        out_h2 = sigmoid(in_h2)
    
        in_o1 = w5 * out_h1 + w7 * out_h2
        out_o1 = sigmoid(in_o1)
        in_o2 = w6 * out_h1 + w8 * out_h2
        out_o2 = sigmoid(in_o2)
    
        print("正向计算,隐藏层h1 ,h2:", end="")
        print(round(out_h1, 5), round(out_h2, 5))
        print("正向计算,预测值o1 ,o2:", end="")
        print(round(out_o1, 5), round(out_o2, 5))
    
        error = (1 / 2) * (out_o1 - y1) ** 2 + (1 / 2) * (out_o2 - y2) ** 2
    
        print("损失函数(均方误差):",round(error, 5))
    
        return out_o1, out_o2, out_h1, out_h2
    
    
    def back_propagate(out_o1, out_o2, out_h1, out_h2):
        # 反向传播
        d_o1 = out_o1 - y1
        d_o2 = out_o2 - y2
    
        d_w5 = d_o1 * out_o1 * (1 - out_o1) * out_h1
        d_w7 = d_o1 * out_o1 * (1 - out_o1) * out_h2
        d_w6 = d_o2 * out_o2 * (1 - out_o2) * out_h1
        d_w8 = d_o2 * out_o2 * (1 - out_o2) * out_h2
    
        d_w1 = (d_o1 * out_h1 * (1 - out_h1) * w5 + d_o2 * out_o2 * (1 - out_o2) * w6) * out_h1 * (1 - out_h1) * x1
        d_w3 = (d_o1 * out_h1 * (1 - out_h1) * w5 + d_o2 * out_o2 * (1 - out_o2) * w6) * out_h1 * (1 - out_h1) * x2
        d_w2 = (d_o1 * out_h1 * (1 - out_h1) * w7 + d_o2 * out_o2 * (1 - out_o2) * w8) * out_h2 * (1 - out_h2) * x1
        d_w4 = (d_o1 * out_h1 * (1 - out_h1) * w7 + d_o2 * out_o2 * (1 - out_o2) * w8) * out_h2 * (1 - out_h2) * x2
    
        print("w的梯度:",round(d_w1, 2), round(d_w2, 2), round(d_w3, 2), round(d_w4, 2), round(d_w5, 2), round(d_w6, 2),
              round(d_w7, 2), round(d_w8, 2))
    
        return d_w1, d_w2, d_w3, d_w4, d_w5, d_w6, d_w7, d_w8
    
    
    def update_w(w1, w2, w3, w4, w5, w6, w7, w8):
        # 步长
        step = 1
        w1 = w1 - step * d_w1
        w2 = w2 - step * d_w2
        w3 = w3 - step * d_w3
        w4 = w4 - step * d_w4
        w5 = w5 - step * d_w5
        w6 = w6 - step * d_w6
        w7 = w7 - step * d_w7
        w8 = w8 - step * d_w8
        return w1, w2, w3, w4, w5, w6, w7, w8
    
    
    if __name__ == "__main__":
    
        print("权值w0-w7:",round(w1, 2), round(w2, 2), round(w3, 2), round(w4, 2), round(w5, 2), round(w6, 2), round(w7, 2),
              round(w8, 2))
    
    
        for i in range(1):
            print("=====第" + str(i+1) + "轮=====")
            out_o1, out_o2, out_h1, out_h2 = forward_propagate(x1, x2, y1, y2, w1, w2, w3, w4, w5, w6, w7, w8)
            d_w1, d_w2, d_w3, d_w4, d_w5, d_w6, d_w7, d_w8 = back_propagate(out_o1, out_o2, out_h1, out_h2)
            w1, w2, w3, w4, w5, w6, w7, w8 = update_w(w1, w2, w3, w4, w5, w6, w7, w8)
    
        print("更新后的权值w:",round(w1, 2), round(w2, 2), round(w3, 2), round(w4, 2), round(w5, 2), round(w6, 2), round(w7, 2),
              round(w8, 2))
    
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32
    • 33
    • 34
    • 35
    • 36
    • 37
    • 38
    • 39
    • 40
    • 41
    • 42
    • 43
    • 44
    • 45
    • 46
    • 47
    • 48
    • 49
    • 50
    • 51
    • 52
    • 53
    • 54
    • 55
    • 56
    • 57
    • 58
    • 59
    • 60
    • 61
    • 62
    • 63
    • 64
    • 65
    • 66
    • 67
    • 68
    • 69
    • 70
    • 71
    • 72
    • 73
    • 74
    • 75
    • 76
    • 77
    • 78
    • 79
    • 80
    • 81
    • 82
    • 83
    • 84
    • 85
    • 86
    • 87
    • 88

    对比【作业2】与【作业3】的反向传播的实现方法。总结并陈述。
    作业2中的实现是自己手动推公式实现的,作业3是直接通过计算图来实现,方便很多

    激活函数Sigmoid用PyTorch自带函数torch.sigmoid(),观察、总结并陈述。
    将激活函数更换:

    在这里插入图片描述
    运行后发现结果并没有变化:
    在这里插入图片描述
    直接调用torch.sigmoid可以免去自己实现的过程。

    激活函数Sigmoid改变为Relu,观察、总结并陈述。
    更换激活函数:
    在这里插入图片描述
    运行结果:
    在这里插入图片描述
    损失函数MSE用PyTorch自带函数 t.nn.MSELoss()替代,观察、总结并陈述。
    更换损失函数:
    请添加图片描述
    运行结果:
    请添加图片描述
    损失函数MSE改变为交叉熵,观察、总结并陈述。
    换成交叉熵
    请添加图片描述
    运行结果:
    请添加图片描述
    改变步长,训练次数,观察、总结并陈述。
    step = 1, 50轮
    结果:
    请添加图片描述
    step = 10, 50轮请添加图片描述
    step = 10, 1轮请添加图片描述
    权值w1-w8初始值换为随机数,对比【作业2】指定权值结果,观察、总结并陈述。
    将初始值换成随机数:请添加图片描述
    运行结果:请添加图片描述
    全面总结反向传播原理和编码实现,认真写心得体会。
    反向传播如果从输入端推下去的话,会发现计算变得非常困难。
    仅仅是两层,式子就变得非常复杂,如果要计算当前层的答案,必须要把下一层的东西计算出来。
    但是如果从输出端往前推,会发现计算变得与前向传播一样,很好计算。
    实现反向传播时,调用pytorch的库会方便很多。

  • 相关阅读:
    Hadoop-Yarn-NodeManager是如何监控容器的
    深入探讨安全验证:OAuth2.0、Cookie与Session、JWT令牌、SSO与开放授权平台设计
    iOS开发之机器学习框架MediaPipe(4)
    Vue学习第16天——全局事件总线$bus的理解
    汽车云算力“竞速”,个性化进阶成新风向
    【使用分类的注意细节 Objective-C语言】
    在不同的系统下解决apache2和nginx伪静态问题(非宝塔页面)wordpress通用
    springboot自定义注解防止表单重复提交
    【动画进阶】巧用 CSS/SVG 实现复杂线条光效动画
    哪些行业可以做ISO认证?
  • 原文地址:https://blog.csdn.net/IHuskY/article/details/126290895