赞
踩
人工智能的历史起于远古时代,夹杂者神话故事和各种流言,正如帕梅拉( Pamela McCorduck)所说,远古人类创造AI 的初心是为了创造一个人造的上帝。比如希腊的金色机器人 火神赫菲斯托斯 和 Pygmalion’s Galatea。
在公元前第一个千禧年,中国,印度和希腊哲学家都提出了一些推理的研究理论,比如 亚里士多德(Aristotle)进行了演绎推理三段论的完整分析,欧几里得(Euclid)所著Elements 是一种形式推理的模型,Muḥammad ibn Mūsā al-Khwārizmī, 发明了代数学,即我们现在所称的算法,此外还有欧洲哲学家威廉-奥卡姆,以及 Duns Scotus。
马略卡哲学家雷蒙-勒尔(Ramon LIull),通过一些逻辑方法发明了一些逻辑机器,莱布尼兹(Gottfried Leibniz) 收到他的启发,重新设计了前者的想法。
17 世纪, 莱布尼兹和托马斯-霍布斯(Thomas Hobbes),以及热奈-笛卡尔( René Descartes )向前更进一步,发现所有的思想都可以通过代数和几何的方式进行组织,Hobbes 写下了《Leviathan》,其中写道“推理无非就是计算”.
到了20世纪,数理逻辑的研究让AI 进一步实现了突破,以英国数学家布尔的《The Laws of Thought》和德国数学家弗雷格的《Begriffsschrift》为基础,拉塞尔和怀特海德在1913念出版了《Principia Mathematica》,在此著作中陈述了一种正式的处理数学基础的方法,德国数学家,大卫-希尔伯特,受到拉塞尔的影响,提出了一个影响数理推理的基础问题:是否所有的数学推理都能被形式化,进而进行分析?
这个问题后来在《imcompleteness proof》,图灵机理论以及《Lambda calculus》中得到了解答,对希尔伯特的问题,做了以下几个说明:
在《Church-Turing Thesis》中提出了以’0’,’1’作为基本符号的设备,可以模拟任何可知的数学推理过程,即我们现在所熟知的图灵机理论。
19世纪初期,查尔斯-巴贝奇(Charles Babbage)设计了一种可编程的计算器(the Analytical Engine),艾达-拉芙蕾丝(Ada Lovelace)敏感的认识到这种设备所拥有的巨大作用,基于巴贝奇的计算器理论引擎,其编写了完整的计算伯努利数的方法,在后来,拉芙蕾丝也被公认为是计算机科学发展历史上的第一位程序员。
第一代的现代计算机是在二战时被用做密码破译机器,比如Z3,ENIAC 和Colossus,后两个是基于阿兰图灵的理论由 约翰.王.诺伊曼设计完成。
经过控制理论和早期的神经网络的发展,1950 年阿兰图灵发表了《computing machinery and intelligence》,其中,图灵预测了创造能够思考的设备的可能性,同时就设备具备思考能力进行了定义:
如果一个机器设备与人类对话时,人类完全不能分辨出其与人类的差别,那么就可以认为这类设备具备思考的能力
现在,图灵测试也被视作第一次对人工智能理论的正式论证。
1956年,Marvin Minsky, John McCarthy 和 2位顶级科学家: Claude Shannon (克劳德·艾尔伍德·香农)以及IBM的 Nathan Rochester,组织了达特茅斯会议,此次会议其中的一个提案断言:任何一种学习或者其他形式的人类智能都能够通过机器进行模拟。同时约翰·麦卡锡为这种机器智能取了一个名字:Artificial Intelligence, 由此,AI 第一次被正名。
达特茅斯会议之后,大众对AI 赋予了很高的期望,也对AI 能起到的效果感到十分震惊,同时,相关的研究人员在公开场合和私底下都对未来的AI 发展表达了强烈的信心。政府部门,美国DAPA 向相关的AI 机构投注了大笔资金。
这种强烈的自信在整个社会蔓延,第一代AI研究者曾经作出一些预测:
同时,也有一些比较成功的人工智能应用铺展开来:
黄金年代的各项成果也得到了财政方面的各项资助:
AI 到这个时期,已经发展了近半个世纪,由于计算机的发展,终于在特定领域的一些孤立问题实现了一些它早期既定的目标。但也仅此而已,人工智能已经不是商业世界的宠儿,这个时期,AI 的发展比以往都要更加谨慎,但摩尔定律慢慢开始发挥作用。这个时期的主要事件:
在此时期,AI 慢慢的成为了一个严谨且科学的学科,相应的数学表达也趋于统一,借助于AI 世界的语言,全世界的从业者都可以通力合作,分享思想和成果。同时,AI 以一种退居幕后的形式在:
这段时期是AI 黎明的前夜,当下所看到的AI 火山的喷发,这是在这段蛰伏期积聚了足够的力量。
深度学习是机器学习的一个分支,其使用多层网络来对更高层级的抽象进行建模,相比于shallow network(浅层网络),深度神经网络能对更为复杂的问题进行建模,同时避免shallow network 常遇到的overfitting(过拟合问题,当然深度学习网络也会遇到),同时,深度学习网络也有自身的弱点,对于RNN 来说,通常遇到的就是梯度消失问题(通过构建lstm 单元来避免)。
目前深度学习网络在计算机视觉和NLP 领域都有超出人类准确度的表现。
这里谈论到的大数据通常指使用常规软件工具在一定时间内不容易进行组织,收集和处理的数据。在《大数据时代》(Victor Meyer Schonberg & Kenneth Cooke)这本书中提到,大数据分析不是随机采样分析,而是对所有数据的分析。大数据具备5V 特性:
人类终极目标,智能皇冠上的明珠:通用人工智能(AGI),其能解决任何问题,而不是对特定问题的特定解决方案,也称为强人工智能(Strong AI)。
在相关领域,一些基础模型从2018 年开始在逐渐演进过程中:
Reference:
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。