当前位置:   article > 正文

人工智能简史

1982年英国科学家约翰霍普菲德与杰弗里辛顿几乎同时发生具有学习能力的神经网

(1)史前:代数几何计算

一、算法

1、无

二、算力

1、1945年,根据冯诺依曼理论研制出ENIAC,人类历史上第一台计算机。

三、数据

1、无

四、典型应用

1、计算:1855年,英国发明家巴贝奇发明差分机。

(2)50年代开端:数学推理

一、算法

1、1950年,图灵提出图灵机、图灵测试构想。

2、1956年,达特茅斯会议,约翰麦卡锡(1971年图灵奖得主、LISP语言发明人)提出“人工智能”一词。

二、算力

1、无

三、数据

1、无

四、典型应用

1、搜索用于推理,应用于下棋游戏:1956年,机器学习之父亚瑟塞缪尔的西洋棋程序战胜了美国康涅狄格州冠军。“推理就是搜索”,是这个时期主要研究方向。

(3)人工智能的第一次热潮(60年代)与寒冬(70年代):视觉识别与语音识别

一、算法

1、无

二、算力

1、1973年,英国数学家莱特希尔报告,称视觉识别和听觉识别需要的计算量太大、数据处理量太大,当前无法满足。人工智能进入第一次寒冬。

三、数据

1、无

四、典型应用

1、智能问答:1966年,美国军方委托麻省理工学院的人工智能学院编写了ELIZA智能问答系统。这是自然语言对话技术的开端。

2、视觉识别和听觉识别应用于机器人:1967年,日本早稻田大学发明WABOT-1机器人原型,有摄像头视觉和麦克风听觉装置。这是视觉识别和听觉识别的开端。

(4)人工智能的第二次热潮(80年代)与寒冬(90年代):专家系统

一、算法

1、1982年,英国科学家霍普尔德发明了具有全新学习能力的Hopfield神经网络算法。与此同时,杰佛里辛顿(深度学习之父)和大卫鲁梅哈特发明了可以训练的反向传播神经网络。

2、1988年,美国科学家朱迪亚皮尔(贝叶斯网络算法发明人),将概率论方法引入人工智能推理。

他们将人工智能的“智能性”又往前推进了一步。

二、算力

1、1982年,日本期望研发大规模多CPU并行计算机,来解决人工智能所需的计算量问题。当时已经能够做到512颗CPU并行计算。但其不通用性,很快被Intel的x86芯片架构超越。

三、数据

1、无

四、典型应用

1、基于规则的推荐技术应用于专家系统:1980年,卡耐基梅隆大学研发的XCON垂直专家系统投入使用,具有2500条规则,专门用于自动选配计算机配件。由于垂直应用,所以计算量和数据处理量大大收敛。

但当时,神经网络、概率统计方法,与专家规则系统并未整合,这让专家系统并未具备自学习能力,而且维护专家系统规则越来越复杂。人工智能硬件又遇到了第二次寒冬。

(5)90年代视觉识别和语音识别的突破

一、算法

1、1997年,两位德国科学霍克赖特和施米德赫伯 提出了长期短期记忆(LSTM), 适用于手写识别和语音识别的递归神经网络

二、算力

1、1997年,IBM用480块x86 CPU搭建深蓝Deep blue计算机战胜了人类世界象棋冠军卡斯帕罗夫。

三、数据

1、1995年,理查德华莱士开发了新的聊天机器人程序Alice,它能够利用互联网不断增加自身的数据集,优化内容。

四、典型应用

1、手写文字图像识别:1989年,贝尔实验室的雅恩乐昆使用卷积神经网络技术,实现了人工智能识别手写邮政编码数字图像。

2、语音识别:1992年,李开复用统计学方法,实现了连续语音识别。

3、机器人:2000年,日本本田公司发明了机器人ASIMO,有着更高效果的视觉识别与听觉识别能力。

(6)2006年以后的深度学习

一、算法

1、2006年,杰弗里辛顿出版了《Learning Multiple Layers of Representation》奠定了神经网络的全新架构。

2、2007年,在斯坦福任教的华裔科学家李飞飞,发起创建了ImageNet项目。自2010年开始,ImageNet每年举行大规模视觉识别挑战赛。2012年由多伦多大学在挑战赛上设计的深度卷积神经网络算法,被业内认为是深度学习革命的开始。

3、2014年,伊恩·古德费罗提出GANs生成对抗网络算法,用于无监督学习的人工智能算法。

4、2018年,Google推出BERT模型、OpenAI推出GPT-2模型,均刷新了自然语言阅读理解与生成的人类历史最高效果。

目前,GAN正在从视觉处理领域走向更普遍领域,强化学习也正在从游戏对抗训练领域走向更普遍领域,这会让数据无监督标注、无监督训练更前进一步。

二、算力

1、2006年,AWS云计算发布。2006年,Hadoop大数据存储与计算平台发布。2014年,Spark内存实时计算框架发布。

2、2009年,吴恩达开始研究使用图形处理器(GPU而不是CPU)进行大规模无监督式机器学习工作。2017年,Google推出TPU 人工智能计算专用芯片。

三、工具

1、2016年,Google开源推出Tesorflow深度学习平台。2016年和2017年,谷歌发起了两场轰动世界的围棋人机之战,其人工智能程序AlphaGo连续战胜曾经的围棋世界冠军韩国李世石,以及现任的围棋世界冠军中国的柯洁。

2、2018年,Google开源推出Dopamine强化学习平台。

基于这两个开源平台产生了大量代码库,带来了人工智能应用的普及。

四、数据

1、2000年以后,爬虫与搜索、互联网应用、电子商务应用、SaaS应用、Open API开放平台被广泛应用,造成非结构化数据大爆炸。

2、2014年,4G大规模普及(数据传输性能)、智能手机(高清摄像头与麦克风)大规模普及,导致智能手机语音、图像、视频多媒体数据大爆炸。

3、2014年,IoT智能产品流行,导致传感器时序数据大爆炸。

五、典型应用

1、智能会话:2014年,Amazon推出Echo智能音箱和智能会话Alexa。2016年,Apple公司推出Siri。

2、视觉识别和听觉识别应用于智能汽车:2009年,谷歌开始秘密测试无人驾驶汽车技术;2014年,谷歌成为第一个在通过美国州自驾车测试的公司。

3、机器人:谷歌2013年还曾收购了世界顶级机器人技术公司:波士顿动力学公司,2017年又出售给日本软银公司。

(7)应用场景总结

回顾人工智能发展这60多年,似乎典型应用并不多,咱们就不提搞比赛搞秀的下棋游戏大战,真正商业应用的人工智能只有两类:

1、专家系统、智能问答、智能会话。这是典型的NLP领域。如果说Google和百度搜索也算NLP,那么人工智能NLP过往,就是两个应用:智能问答和会话、搜索和推荐

2、可以视觉识别和听觉识别的硬件(消费者服务机器人、音箱、无人驾驶汽车、无人机、手机)。即使在中国人工智能这么热,也大多去抢海康威视大华工业级摄像头的市场,搞安防监控、交通监控、消防监控、安全生产监控、环保监控、金融刷脸认证、零售无人商店刷脸识别、线下营销广告自动消费者识别。

(8)尾巴:微软亚洲研究院

微软亚洲研究院,1998年成立(美国互联网在1994年开始爆发),是全球唯一的专门研究人工智能的研究院。成立已经20年。

但似乎微软亚洲研究院起了个大早、赶了个晚集。人才倒是培养了不少,但大多流落业界或者自己创业,并无给微软自己带来好处。我也在思考这个问题到底出在哪里了?

现在的人工智能,是典型的数据科学。但微软作为工具产品公司,错过了互联网时代、智能手机时代,手里没数据。

互联网公司几乎都是羊毛出在狗身上(广告模式),智能手机公司是一半狗毛一半羊毛(手机硬件赚钱,AppStore也挣钱)。微软是工具软件产品商业模式,是羊毛只能出在羊身上。所以微软对开源免费这事一直观望、犹犹豫豫。所以微软也开源,但一直不是很大力。这在工具方面就差强人意了。

另外,虽然微软看着AWS搞云,自己也于2008年也开始搞云,但因为云计算是软硬一体化的、带运营运维服务的,这是微软作为工具软件产品公司从来没有干过的,而且其收入结构/成本结构/利润结构也不一样,所以微软对搞云也一直犹犹豫豫的,直到2014年纳德拉上台来才强力做云。这就在算力方面滞后了。

而且很奇怪的是,微软亚洲研究院也一直没有在算法方面有开创性的东西。虽然ResNet在2014年ImageNet比赛中获得图像分类第一名,但只是改进型,不是开创型。从2007年洪小文上任微软亚洲研究院院长,按说是时间点并不晚。

缺数据、平台与生态不给力、算力发展也滞后,算法也没有开创性研究成果。

好不容易折腾了个微软小冰智能会话、Bing搜索,还内部一顿权力斗争,沈向洋的离开不言而喻。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/AllinToyou/article/detail/225869
推荐阅读
相关标签
  

闽ICP备14008679号