• 推荐项目_动手学深度学习pytorch版


    前言

    推荐一个项目,这个项目根据李沐参编的dive into DL改,链接https://tangshusen.me/Dive-into-DL-PyTorch。书中内容很好,新手根据内容敲一敲前三章的内容就能入门pytorcn,英文好的推荐https://d2l.ai/和配套仓库https://github.com/dsgiitr/d2l-pytorch

    目录

    该书目录如下:

    在这里插入图片描述

    深度学习的十年发展

    以下列表讲述了近十年来深度学习发展的原因

    • 优秀的容量控制方法,类似于统计学的丢弃共线性因素方法,在深度学习的应用有AlexNet提出的dropout层解决过拟合。

    优秀的容量控制方法,如丢弃法,使大型网络的训练不再受制于过拟合(大型神经网络学会记忆大部分训练数据的行为)。这是靠在整个网络中注入噪声而达到的,如训练时随机将权重替换为随机的数字 。

    • 注意力机制

    注意力机制解决了另一个困扰统计学超过一个世纪的问题:如何在不增加参数的情况下扩展一个系统的记忆容量和复杂度。注意力机制使用了一个可学习的指针结构来构建出一个精妙的解决方法。也就是说,与其在像机器翻译这样的任务中记忆整个句子,不如记忆指向翻译的中间状态的指针。由于生成译文前不需要再存储整句原文的信息,这样的结构使准确翻译长句变得可能。

    • 记忆网络和神经编码器—解释器

    记忆网络和神经编码器—解释器这样的多阶设计使得针对推理过程的迭代建模方法变得可能。这些模型允许重复修改深度网络的内部状态,这样就能模拟出推理链条上的各个步骤,就好像处理器在计算过程中修改内存一样。

    • 生成对抗网络GAN

    另一个重大发展是生成对抗网络的发明。传统上,用在概率分布估计和生成模型上的统计方法更多地关注于找寻正确的概率分布,以及正确的采样算法。生成对抗网络的关键创新在于将采样部分替换成了任意的含有可微分参数的算法。这些参数将被训练到使辨别器不能再分辨真实的和生成的样本。生成对抗网络可使用任意算法来生成输出的这一特性为许多技巧打开了新的大门。例如生成奔跑的斑马 [9]和生成名流的照片 [10] 都是生成对抗网络发展的见证。

    • GPU的快速发展,并行计算能力提高,主要用来算偏微分

    许多情况下单个GPU已经不能满足在大型数据集上进行训练的需要。过去10年内我们构建分布式并行训练算法的能力已经有了极大的提升。设计可扩展算法的最大瓶颈在于深度学习优化算法的核心:随机梯度下降需要相对更小的批量。与此同时,更小的批量也会降低GPU的效率。如果使用1,024个GPU,每个GPU的批量大小为32个样本,那么单步训练的批量大小将是32,000个以上。近年来李沐、Yang You等人以及Xianyan Jia等人的工作将批量大小增至多达64,000个样例,并把在ImageNet数据集上训练ResNet-50模型的时间降到了7分钟。与之对比,最初的训练时间需要以天来计算。

    • Pytorch,TensorFlow等框架

    深度学习框架也在传播深度学习思想的过程中扮演了重要角色。Caffe、 Torch和Theano这样的第一代框架使建模变得更简单。许多开创性的论文都用到了这些框架。如今它们已经被TensorFlow(经常是以高层API Keras的形式被使用)、CNTK、 Caffe 2 和Apache MXNet所取代。第三代,即命令式深度学习框架,是由用类似NumPy的语法来定义模型的 Chainer所开创的。这样的思想后来被 PyTorch和MXNet的Gluon API 采用,后者也正是本书用来教学深度学习的工具。

  • 相关阅读:
    比亚迪的利润飙升超过200%,汽车销量创纪录,有你的一份力吗?
    医院职工离职申请证明模板,共计10篇
    【LOJ#6718】九个太阳「弱」化版(循环卷积,任意模数NTT)
    【数据结构与算法】深度剖析“八大排序”(上)_ 探寻一些不为人知的细节
    1.3 Metasploit 生成SSL加密载荷
    java计算机毕业设计疫情防控期间人员档案追演示录像上源码+系统+mysql数据库+lw文档
    管理区解耦架构见过吗?能帮客户搞定大难题的
    C++语言的广泛应用领域
    服务器入侵之找出隐藏字符的原理
    通过AOP拦截Spring Boot日志并将其存入数据库
  • 原文地址:https://blog.csdn.net/qq_43369406/article/details/127411850