当前位置:   article > 正文

深度学习的历史_深度学习历史

深度学习历史

概念层面上来讲,深度学习是受到大脑的启发。

就像飞机的设计灵感来自鸟类。

虽然它们的基本原理一致,但细节却大相径庭。

深度学习的历史可以追溯到现在更名为「控制论」(cybernetics)的领域。

它始于 1940 年代的 McCulloch 和 Pitts,他们提出了神经元是具有开启和关闭状态的阈值单元,可以通过构建逻辑推理并将神经元相互连接来构建布尔电路。

大脑基本上是一个逻辑推理机,因为神经元的开启和关闭状态是二元的。
神经元计算输入的加权总和,并将该总和与其阈值进行比较。
如果它高于阈值则打开,如果低于阈值则关闭,这是神经网络如何工作的简化视图。

1947 年,唐纳德·赫布 (Donald Hebb) 提出大脑中的神经元通过改变神经元之间连接的强度来学习的想法,这被称为超学习。如果两个神经元一起被激发,那么它们之间的连接就会增加;如果他们没有被一起激发,那么连接就会减少。

1948 年,诺伯特·维纳(Norbert Wiener)提出了控制论,即通过构建带有传感器和执行器的系统,就有了一个反馈回路和一个自我调节系统。例如,一辆车的反馈机制,都来自于这个想法。

1957 年,Frank Rosenblatt 提出了「感知器」,这是一种学习算法,可以修改非常简单的神经网络的权重。

总体而言,这种试图通过模拟大量神经元来构建智能机器的想法诞生于 1940 年代,在 1950 年代发展迅速,并在 1960 年代后期完全消亡。

该领域在 1960 年消亡的主要原因是:
● 研究人员使用了二元神经元。然而,让反向传播工作的方法是使用连续的激活函数。当时,研究人员没有使用连续神经元的想法,他们不能用梯度训练,因为二元神经元不是微分的。
● 对于连续神经元,必须将神经元的激活函数乘以权重才能对加权和做出贡献。然而,在 1980 年之前,两个数的乘法,尤其是浮点数,非常缓慢。这也是另一个避免使用连续神经元的原因。

随着反向传播的出现,深度学习在 1985 年再次起飞。
1995 年,该领域再次消亡,机器学习社区放弃了神经网络的想法。
2010 年初,人们开始在语音识别中使用神经元网络,性能大幅提升,随后在商业领域得到广泛应用。
2013 年,计算机视觉开始转向神经元网络。
2016 年,自然语言处理也发生了同样的转变,很快,类似的革命将发生在机器人、控制和许多其他领域。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小蓝xlanll/article/detail/238332
推荐阅读
相关标签
  

闽ICP备14008679号