• 深入浅出PyTorch——基础知识


    一、PyTorch的简介和安装   

            因为在学习pytorch之前就已经配置和安装好了相关的环境和软件,所以这里就不对第一章进行详细的总结,就简要总结一下:

    1.1 pytorch的发展

            去了Paper with code网站查看了现在pytorch的使用,远超tensorflow

    93e731ac2a8b4bb3b828f57ec06df552.png

    1.2 PyTorch的优势

            简洁、上手快、良好的文档API、社区强大、项目开源。

    1.3 PyTorch的安装

     1.3.1 Anaconda的安装

            官网:Anaconda | Individual Edition

            安装成功你的电脑会有以下应用。

    ca2fd94ee0c840dd833377947923eec9.png

     1.3.2 查看显卡

            (1)使用NVIDIA控制面板

    3235620b4e4f4cfe8bf05436b16078ef.png

     

            (2)使用任务管理器查看自己是否有NVIDIA的独立显卡及其型号

                    打开自己任务管理器——>性能

    edde87f39f7e43ebaacaa18b783dc2dd.png

    1.4  PyTorch安装

            (1)官网:PyTorch官网

            (2)进入官网找到适合自己电脑的pytorch,使用conda下载或者pip下载(建议conda安装),可以结合电脑是否有显卡,选择CPU版本还是CUDA版本,CUDA版本需要拥有独显且是NVIDIA的GPU

            (3)检验是否安装成功,打开Anaconda终端

    a01c67fff6f6443e91c9c97d3fda21f8.png

    输入以下代码,如果显示Ture,则说明安装成功,可以使用。

    1. import torch
    2. torch.cuda.is_available()

    1.5 pycharm安装 

            (1)官网

            (2)建议配置Anaconda的内置环境,这样电脑就不要重复下载了。

    二、PyTorch基础知识

    2.1 张量

    2.1.1 简介

    张量维度代表含义

    0维张量

    标量(数字)

    1维张量

    向量

    2维张量

    矩阵

    3维张量

    时间序列数据、股价、文本数据、单张彩色图片(RGB)

    2.1.2 创建tensor

            以下为创建tensor的几种方法,用法如下,举一例:

    1. import torch
    2. torch.zeros(4,3)
    3. # 创建的时候输入类型 torch.zeros(4,3,dtype=torch.long)

    Tensor(sizes)

    基础构造函数

    tensor(data)

    类似于np.array

    ones(sizes)

    全1

    zeros(sizes)

    全0

    eye(sizes)

    对角为1,其余为0

    arange(s,e,step)

    从s到e,步长为step

    linspace(s,e,steps)

    从s到e,均匀分成step份

    rand/randn(sizes)

    rand是[0,1)均匀分布;randn是服从N(0,1)的正态分布

    normal(mean,std)

    正态分布(均值为mean,标准差是std)

    randperm(m)

    随机排列

    2.1.3 张量的操作

            (1)运算

    直接相加(四则运算都可)x+y
    使用torch.add()torch.add(x,y)
    进行原值修改y.add_(x)
    求幂torch.exp(x)

             (2)索引操作

    取元素x[1:3]
    取第一行x[0,:]
    取第一列x[:,0]

            索引出来的结果与原数据共享内存,修改一个,另一个会跟着修改

    2.1.4 维度变换

            torch.view(),简要的说就是我们创建一个矩阵,然后通过view()从不同的维度去观察这个矩阵,当然在我们对原矩阵进行操作更改后,我们从不同维度进行观察时也会发生改变。这里我们就可以先将原来的进行深度复制,用一个变量进行存储,防止后面的数据丢失

    2.1.5 广播机制

    f08ecc33aeb14338a978589da18dbac1.png

     2.2 自动求导

    2.2.1 autograd的求导机制

           “一个设置,三个函数量”

    2cc93540b9d24ff0a77e6b1d49957586.jpeg

     2.2.2 梯度的返向传播

        torch.autograd计算一些雅可比矩阵的乘积

    37e18d83d34d47cd991028c9c45ff0f2.jpg

    2.3 并行计算

    2.3.1 为什么进行并行计算

            随着数据量的越来越大,计算量也随之越来越大,而为了加快计算的速度,可以使用多个GPU进行并行计算,减少运行的时间。

    2.3.2 使用CUDA

            CUDA支持GPU计算,设置方法如下:

    1. #设置在文件最开始部分
    2. import os
    3. os.environ["CUDA_VISIBLE_DEVICE"] = "2" # 设置默认的显卡
    4. # 选择GPU的块数以及从多块中指定其中n块GPU计算
    5. CUDA_VISBLE_DEVICE=0,1 python train.py # 使用0,1两块GPU

     2.3.3 不同的GPU并行运行方式

    29701b988edc44bda6a185d74a4efef5.jpg

     

    深入浅出PyTorch:https://github.com/datawhalechina/thorough-pytorch

     

     

     

     

     

     

     

     

  • 相关阅读:
    想要拿到手软的大厂offer必须要刷5遍这份5000页Java 最全技术栈手册
    等额本金和等额本息的区别
    VS中修改解决方案名称和项目名称
    Springboot 启动Bean如何被加载
    ES6中新增加的Map和Set数据结构的使用场景
    Apache Doris1.0版本集群搭建、负载均衡与参数调优
    python接口自动化测试之接口数据依赖
    2014年3月13日 Go生态洞察:并发模式与管道取消技术
    Java中线程的实现与生命周期的简介说明
    【网页前端】HTML基本语法之排版标签和表单标签
  • 原文地址:https://blog.csdn.net/qq_51167531/article/details/127872733