• 深度学习的历史


    概念层面上来讲,深度学习是受到大脑的启发。

    就像飞机的设计灵感来自鸟类。

    虽然它们的基本原理一致,但细节却大相径庭。

    深度学习的历史可以追溯到现在更名为「控制论」(cybernetics)的领域。

    它始于 1940 年代的 McCulloch 和 Pitts,他们提出了神经元是具有开启和关闭状态的阈值单元,可以通过构建逻辑推理并将神经元相互连接来构建布尔电路。

    大脑基本上是一个逻辑推理机,因为神经元的开启和关闭状态是二元的。
    神经元计算输入的加权总和,并将该总和与其阈值进行比较。
    如果它高于阈值则打开,如果低于阈值则关闭,这是神经网络如何工作的简化视图。

    1947 年,唐纳德·赫布 (Donald Hebb) 提出大脑中的神经元通过改变神经元之间连接的强度来学习的想法,这被称为超学习。如果两个神经元一起被激发,那么它们之间的连接就会增加;如果他们没有被一起激发,那么连接就会减少。

    1948 年,诺伯特·维纳(Norbert Wiener)提出了控制论,即通过构建带有传感器和执行器的系统,就有了一个反馈回路和一个自我调节系统。例如,一辆车的反馈机制,都来自于这个想法。

    1957 年,Frank Rosenblatt 提出了「感知器」,这是一种学习算法,可以修改非常简单的神经网络的权重。

    总体而言,这种试图通过模拟大量神经元来构建智能机器的想法诞生于 1940 年代,在 1950 年代发展迅速,并在 1960 年代后期完全消亡。

    该领域在 1960 年消亡的主要原因是:
    ● 研究人员使用了二元神经元。然而,让反向传播工作的方法是使用连续的激活函数。当时,研究人员没有使用连续神经元的想法,他们不能用梯度训练,因为二元神经元不是微分的。
    ● 对于连续神经元,必须将神经元的激活函数乘以权重才能对加权和做出贡献。然而,在 1980 年之前,两个数的乘法,尤其是浮点数,非常缓慢。这也是另一个避免使用连续神经元的原因。

    随着反向传播的出现,深度学习在 1985 年再次起飞。
    1995 年,该领域再次消亡,机器学习社区放弃了神经网络的想法。
    2010 年初,人们开始在语音识别中使用神经元网络,性能大幅提升,随后在商业领域得到广泛应用。
    2013 年,计算机视觉开始转向神经元网络。
    2016 年,自然语言处理也发生了同样的转变,很快,类似的革命将发生在机器人、控制和许多其他领域。

  • 相关阅读:
    利用union判断CPU大小端以及大小端转换(C++)
    数据预处理与特征工程
    Lambda表达式简化过程
    Xuperchain竞赛环境安装与工作环境搭建
    图片上传流程&前端上传文件&后端保存文件&并返回图片地址
    计算机竞赛 深度学习乳腺癌分类
    企业落地数字化转型,战略规划应该放在首要位置
    GitHub 2.9K,Awesome GIS 地理空间相关资源集合!
    java jdbc Incorrect string value for column
    Qt中的信号和槽详解
  • 原文地址:https://blog.csdn.net/weixin_46442179/article/details/125525464