赞
踩
这些天,抽空读了一下人工智能基础(高中版),觉得作为高中科普教材,还是非常不错的,五星好评推荐。
下面会针对每一章的内容,依据兴趣等补充一些资料。
2019年05月更新链接(人工智能开放课程,点击红旗就是中文版):https://github.com/Yorko/mlcourse.ai
这是medium.com上发布的文章列表 ,habr.com 和jqr.com 。图标是可点击的。此外,还给出了Kaggle Kernels(英文)的链接。这样就可以在不安装单个包的情况下重现所有内容。
视频选择会上传到此 YouTube播放列表。介绍,视频,幻灯片
以下是演示版本。课程期间会公布完整版本。
在整个课程中,我们维持学生评分。它考虑了作业和Kaggle比赛中获得的学分。他们说,评级高度激励完成课程。优秀学生(根据最终评级)列在特殊页面上。
学生之间的讨论在OpenDataScience Slack团队的#mlcourse_ai频道进行。填写此表单以获得更接近新会话开始的邀请。
该课程是免费的,但您可以通过对Patreon(每月支持)或Ko-fi的一次性付款作出承诺来支持组织者。因此,您将促进机器学习在世界范围内的传播!
该课程是免费的,但您可以通过对Patreon的承诺来支持组织者
首先是封面:
接着,是一段“肺腑之言”,我觉得蛮好的,“感人至深”:
----第一章----
看完第一章,对人工智能和机器人的未来充满向往和信心啊。
先展望未来,再回顾历史,接着讲解当下人工智能的应用和概念与方法。
1.1 补充如下:
-
-
-
-
-
-
-更多精彩,链接:http://i.youku.com/zhangrelay-
1.2 补充如下(中英对照,人工智能历史),雷锋网推荐(https://www.leiphone.com/)读懂智能和未来:
中文:https://zh.wikipedia.org/wiki/%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD%E5%8F%B2
英文:https://en.wikipedia.org/wiki/History_of_artificial_intelligence
这段比书中内容更全面的。人工智能机器翻译部分在文末。
1.3补充如下:
这里推荐一个知乎问答:人工智能在生活中的应用有哪些?链接如下:
https://www.zhihu.com/question/62512060
1.4 补充如下:
这里还是推荐一个知乎问答:人工智能、机器学习和深度学习的区别?链接如下:
https://www.zhihu.com/question/57770020
如下图片来源于上述链接:
1.5 补充如下:
有人会问,中小学阶段是否适合开始人工智能等课程?
我不列举欧美日等国家的示例了,只看隔壁韩国,高中的机器人编程课,2010年开设的夏令营,是的2010年!:
----豆瓣点评----
----
维基百科,自由的百科全书
人工智能 |
主要目标 |
---|
知识推理 |
规划 |
机器学习 |
自然语言处理 |
计算机视觉 |
机器人 |
人工智能 |
途径 |
象征 |
深入学习 |
贝叶斯网络 |
进化算法 |
哲学 |
伦理 |
存在风险 |
图灵测试 |
中国的房间 |
友好的AI |
历史 |
时间线 |
进展 |
AI冬天 |
技术 |
应用 |
项目 |
编程语言 |
词汇表 |
词汇表 |
人工智能(AI)的历史始于古代,神话,故事和人造智慧的传闻赋予了工匠的智慧或意识; 正如帕梅拉麦考达克写道,AI开头是“一个古老的愿望,以伪造众神。” [1]
现代AI的种子是由古典哲学家种植的,他们试图将人类思维的过程描述为对符号的机械操纵。这项工作最终导致了20世纪40年代可编程数字计算机的发明,这是一种基于数学推理的抽象本质的机器。这个装置及其背后的想法激励了一些科学家开始认真讨论构建电子大脑的可能性。
领域人工智能研究成立在研讨会上的校园举行达特茅斯学院 1956年这些谁参加就成为人工智能研究的领导人几十年来在暑假期间。他们中的许多人预测,像一个人一样聪明的机器将存在于不到一代人的时间,并且他们被赋予了数百万美元来实现这个愿景。
最终显而易见的是,由于计算机硬件的限制,他们严重低估了项目的难度。1973年,为了回应James Lighthill的批评以及国会的持续压力,美国和英国政府停止资助人工智能的无向研究,随后的艰难岁月后来被称为“ AI冬季 ”。七年后,日本政府的一个有远见的举措激励政府和行业向AI提供数十亿美元,但到了80年代末,投资者由于缺乏所需的计算机能力(硬件)而再次失去理想,从而失去了投资。
由于存在强大的计算机硬件,机器学习在学术界和工业界成功应用于许多问题,因此对AI的投资和兴趣在21世纪的头十年蓬勃发展。正如在以前的“ 人工智能夏季 ”中,一些观察者(如Ray Kurzweil [2])预测人工智能即将到来:一台智力超过人类能力的机器。
[ 隐藏 ]
人工智能的梦想在印度的哲学中首先被想到,例如可追溯到公元前1500年的着名哲学传统Charvaka和公元前600年左右的尚存文献。McCorduck(2004)写道:“ 人工智能以这种或那种形式是一种渗透智力历史的想法,这是一个迫切需要实现的梦想,”在人类的神话,传说,故事,猜测和发条自动机中表达。[3]
主要文章:小说中的人工智能
机械人和人造生物出现在希腊神话中,如赫菲斯托斯和皮格马利翁的 加拉蒂奥的金色机器人。[4]在中世纪,有秘密神秘或传言炼金放置到心物质的手段,如贾比尔的Takwin,巴拉赛尔苏斯 ' 侏儒和拉比犹太勒夫的傀儡。[5]到19世纪,关于人造人和思维机器的想法在小说中得到发展,如玛丽雪莱的弗兰肯斯坦或卡雷尔恰佩克的RUR(Rossum的通用机器人),[6]和推测,如塞缪尔·巴特勒的‘ 的机器中达尔文 ’。[7] AI一直是科幻小说融入当下的重要元素。
主要文章:自动机
Al-Jazari的可编程自动机(1206 CE)
现实人形自动机是由工匠从每一个文明建设,包括兖石,[8] 希罗,[9] 加扎利[10] ,皮埃尔·雅凯-德罗和沃尔夫冈·冯·肯佩伦。[11]已知最古老的自动机是在神圣的雕像的古埃及和希腊。忠实的信徒相信,工匠用非常真实的头脑灌输这些人物,能够有智慧和情感 - 爱马仕Trismegistus写道:“通过发现众神的本质,人类能够重现它。” [12][13]
人工智能的基础是人类思维过程可以机械化的假设。对机械或“正式”理论的研究有着悠久的历史。公元前第一个千年,中国,印度和希腊哲学家都开发出了形式演绎的结构化方法。他们的思想是几个世纪以来由哲学家们发展起来的,例如亚里士多德(他对三段论作了正式的分析),欧几里德(他的元素是一种形式推理的模型),al-Khwārizmī(他发明了代数并给出了他的名字“ 算法 ” )和欧洲学校哲学家,如奥卡姆威廉和迪斯科斯特鲁斯。[14]
马略卡哲学家Ramon Llull(1232-1315)开发了多种逻辑机器,专门用逻辑手段来生产知识; [15] Llull将他的机器描述成机械实体,它可以通过简单的逻辑操作来结合基本的和不可否认的事实,机器通过机械的意义产生这些逻辑操作,以产生所有可能的知识。[16] Llull的工作对重建他的想法的Gottfried Leibniz有很大影响。[17]
戈特弗里德莱布尼兹,他推测人类的理由可以归结为机械计算
在17世纪,莱布尼茨,托马斯霍布斯和笛卡尔笛卡尔探讨了所有理性思想都可以像代数或几何学那样系统化的可能性。[18] 霍布斯在利维坦着名的着作中写道:“理性只不过是算账而已”。[19] 莱布尼茨设想了一种通用的推理语言(他的特征是普遍性的),这会减少论证到计算的程度,所以“两个哲学家之间不会有比两个会计师之间更多的争议,因为只需要他们的铅笔就足够了用手抚摸他们的脸谱,说出对方的话(如果他们喜欢的话,与朋友一起作为证人):让我们计算一下。“ [20]这些哲学家已经开始阐述物理符号系统假说,这将成为人工智能研究的指导性信念。
在20世纪,对数学逻辑的研究提供了重要的突破,使人工智能看起来似乎是合理的。这些基础是由布尔的 “ 思想定律”和弗雷格的 “ 忏悔录 ” 等作品确定的。在弗雷格系统的基础上,拉塞尔和怀特海德于1913年在他们的杰作“ 数学原理”中对数学基础进行了正式的处理。受到罗素成功的启发,大卫希尔伯特向20世纪20年代和30年代的数学家们挑战,回答这个基本问题:“所有的数学推理都可以形式化吗?” [14]他的问题由哥德尔的不完整证明,图灵的机器和教会的Lambda演算回答。[14] [21]
ENIAC,摩尔电气工程学院。这张照片被人为地变暗,模糊了诸如在场的女性和正在使用的IBM设备等细节。[22]
他们的答案在两个方面都令人惊讶。首先,他们证明实际上,数学逻辑可以完成的限制。但其次(对AI更重要)他们的工作表明,在这些限制之内,任何形式的数学推理都可以被机械化。该教会图灵论题暗示的机械装置,重排,0和1作为简单的符号,可以模仿数学推导的任何可设想的过程。关键的洞察力是图灵机 - 一个简单的理论构造,它抓住了抽象符号操纵的本质。这项发明将激励少数科学家开始讨论思考机器的可能性。[14] [23]
计算机器建于古代,由许多数学家在历史上进行了改进,包括(再一次)哲学家戈特弗里德莱布尼茨。在19世纪初,查尔斯巴贝奇设计了一台可编程计算机(分析引擎),虽然它从未建成。Ada Lovelace推测,该机器“可能会制作任何复杂程度或范围的复杂而科学的音乐作品”。[24](她通常被认为是第一位程序员,因为她写的一组笔记完全详细描述了用引擎计算伯努利数的方法。)
第一批现代计算机是第二次世界大战的大规模破译机器(如Z3,ENIAC和Colossus)。后两种机器基于Alan Turing [25]奠定的理论基础,并由John von Neumann开发。[26]
IBM 702:第一代AI研究人员使用的计算机。
在20世纪40年代和50年代,来自各个领域(数学,心理学,工程学,经济学和政治学)的少数科学家开始讨论创造人造大脑的可能性。领域人工智能研究成立在1956年一门学科。
对思维机器的最早研究受到20世纪30年代末,40年代末和50年代初流行的思想汇合的启发。最近在神经病学上的研究表明,大脑是一种神经元的电网络,以全脉冲或无脉冲方式发射。诺伯特维纳的控制论描述了电网中的控制和稳定性。克劳德香农的信息理论描述了数字信号(即全或无信号)。阿兰·图灵的计算理论表明任何形式的计算都可以用数字来描述。这些观点之间的密切关系表明,构建电子大脑是可能的。[27]
这方面工作的例子包括机器人,如W.格雷沃尔特的海龟和约翰霍普金斯野兽。这些机器不使用计算机,数字电子设备或符号推理; 它们完全由模拟电路控制。[28]
Walter Pitts和Warren McCulloch分析了理想化的人造神经元网络,并展示了他们如何执行简单的逻辑功能。他们首先描述了后来研究人员称之为神经网络的东西。[29]受Pitts和McCulloch启发的学生之一是年轻的Marvin Minsky,后来是一名24岁的研究生。1951年(与Dean Edmonds一起),他建立了第一台神经网络机器SNARC。[30] 未来50年,明斯基将成为人工智能领域最重要的领导者和创新者之一。
1950年,艾伦图灵发表了一篇具有里程碑意义的论文,其中他推测了创造思维机器的可能性。[31]他指出,“思考”很难定义和设计他着名的图灵测试。如果一台机器可以在一个会话(在携带电传打字机,这是从一个人的谈话没有区别),然后它是合理地说,机器是“思考”。这个简化版本的问题使得图灵有说服力地争辩说,一个“思维机器”至少是合理的,并且该论文回答了对该命题的所有最常见的反对意见。[32]所述的图灵测试是人工智能哲学中的第一个严肃提议。
1951年,使用费朗蒂马克1中的机器曼彻斯特大学,克里斯托弗·斯特雷奇写了一个程序跳棋和迪特里希·普林茨写了一个国际象棋。[33] 阿瑟·塞缪尔的跳棋程序,在50年代中期和60年代初开发,最终取得了足够的技能来挑战一个体面的业余爱好者。[34] 游戏AI将继续被用作在其整个历史中AI进步的措施。
当数字计算机在五十年代中期成为可能时,一些科学家本能地认识到,一个可以操纵数字的机器也可以操纵符号,操纵符号很可能是人类思想的本质。这是创造思维机器的新方法。[35]
1955年,Allen Newell和(未来的诺贝尔奖获得者)Herbert A. Simon创立了“ 逻辑理论家 ”(在JC Shaw的帮助下)。该计划最终将证明罗素和怀特黑德的 原理Mathematica中的前52个定理中的38个,并为一些人找到新的更优雅的证明。[36]西蒙说,他们“解决了古老的思想/身体问题,解释了由物质组成的系统如何具有心智的属性。” [37] (这是哲学立场的早期声明约翰塞尔后来称之为“ 强AI“:机器可以像人体一样包含思想。)[38]
在达特茅斯会议的1956年[39]是由有组织的马文·明斯基,约翰·麦卡锡:和两位资深科学家克劳德·香农和弥敦道罗切斯特的IBM。会议的提案包括这样一种说法:“学习的每一个方面或者智力的任何其他特征都可以被精确地描述,以便机器可以被模拟出来”。[40]参加者包括Ray Solomonoff,Oliver Selfridge,Trenchard More,Arthur Samuel,Allen Newell和Herbert A. Simon,他们都会在人工智能研究的头几十年中创造出重要的计划。[41]在会议上,纽厄尔和西蒙首次推出了“ 逻辑理论家”,麦卡锡说服参加者接受“人工智能”作为该领域的名称。[42] 1956年达特茅斯大会是AI获得其名称,使命,首次成功和主要参与者的时刻,并被广泛认为是人工智能的诞生。[43]
达特茅斯大会之后的几年是一个发现的时代,在新的领域不断前进。对于大多数人来说,在这段时间开发的程序只是“惊人的”:[44]计算机正在解决代数字问题,证明几何学中的定理和学习说英语。很少有人会相信机器的这种“智能”行为是可能的。[45]研究人员在私人和印刷品中表达了强烈的乐观情绪,预测一个完全智能的机器将在不到20年的时间内建成。[46]像DARPA这样的政府机构将资金投入新的领域。[47]
在50年代末和60年代,有许多成功的项目和新的方向。其中最有影响力的是:
作为搜索推理[ 编辑]
许多早期的AI程序都使用相同的基本算法。为了实现某个目标(比如赢得比赛或者证明一个定理),他们一步一步地(通过做出动作或推断)逐步进行,就好像在迷宫中搜索一样,当它们到达死胡同时回溯。这种范式被称为“ 推理作为搜索 ”。[48]
主要困难在于,对于许多问题,通过“迷宫”的可能路径的数量简直是天文数字(称为“ 组合爆炸 ”)。研究人员将通过使用启发式或“ 经验法则 ”来减少搜索空间,从而消除那些不太可能导致解决方案的路径。[49]
Newell和Simon试图在一个名为“ 一般问题求解器 ” 的程序中捕获该算法的通用版本。[50]其他的“搜索”程序能够完成令人印象深刻的任务,如解决几何和代数问题,如赫伯特格勒特的几何定理证明(1958)和明斯基的学生詹姆斯斯拉格(1961)写的SAINT。[51]通过目标和子目标搜索其他程序来规划行动,如斯坦福大学开发的STRIPS系统来控制他们的机器人Shakey的行为。[52]
语义网络的一个例子
自然语言[ 编辑]
人工智能研究的一个重要目标是让计算机能够以英语等自然语言进行交流。早期的成功是Daniel Bobrow的程序STUDENT,它可以解决高中代数问题。[53]
一个语义网代表概念(如“房子”,“门”)为节点和概念之间的关系(例如,“具有-A”)作为节点之间的链接。第一个使用语义网的AI程序由Ross Quillian编写[54],最成功的(也是有争议的)版本是Roger Schank的概念依赖理论。[55]
Joseph Weizenbaum的ELIZA可以进行非常现实的对话,以至于偶尔用户被愚弄到认为他们正在与人交流而不是程序。但事实上,伊丽莎丝毫不知道她在说什么。她只是简单地给出了一个罐头响应,或者重复了对她所说的话,用一些语法规则重述了她的回答。ELIZA是第一个聊天机器人。[56]
微观世界[ 编辑]
在60年代末,马文·明斯基和西摩帕尔特中的MIT人工智能实验室提出了人工智能研究重点应放在被称为微世界人工简单的情况。他们指出,在像物理学这样成功的科学中,基本原理通常可以通过使用简化模型(如无摩擦平面或完全刚体)来最好地理解。大部分的研究都集中在一个“ 块状世界 ” 上,这个“ 块状世界 ”由排列在平坦表面上的各种形状和大小的彩色块组成。[57]
Gerald Sussman(领导团队),Adolfo Guzman,David Waltz(他发明了“ 约束传播 ”),特别是Patrick Winston,这种范例导致了机器视觉方面的创新工作。与此同时,明斯基和帕佩特建立了一个机器人手臂,可以将积木堆砌起来,将积木世界变为现实。微世界计划的最大成就是Terry Winograd的SHRDLU。它可以用普通的英语句子进行交流,计划操作并执行它们。[58]
第一代人工智能研究人员对他们的工作做出了这些预测:
1963年6月,麻省理工学院从新成立的高级研究计划署(后称为DARPA)获得了220万美元的资助。这笔钱被用于资助MAC项目,该项目囊括了Minsky和McCarthy五年前创建的“AI Group” 。直到70年代,DARPA每年仍然提供300万美元。[63] DARPA向CMU的Newell和Simon的项目以及1963年John McCarthy创立的斯坦福AI项目提供类似的补助金。[64]1965年,Donald Michie在爱丁堡大学成立了另一个重要的人工智能实验室。[65]这四个机构多年来一直是学术界人工智能研究(和资助)的主要中心。[66]
这笔钱只有几条附加条件:当时的ARPA主管JCR Licklider认为他的组织应该“为人们提供资金,而不是项目!” 并允许研究人员追求任何可能令他们感兴趣的方向 [67]这在麻省理工学院创造了一种可以产生黑客文化的自由气氛,[68]但这种“放手”的方式不会持久。
在日本,早稻田大学发起WABOT项目于1967年,并于1972年完成了WABOT-1,世界上第一个全尺寸智能人形机器人,[69] [70]或机器人。它的肢体控制系统允许它与下肢一起行走,并使用触觉传感器用手抓握和运输物体。它的视觉系统允许它使用外部接收器,人造眼睛和耳朵来测量物体的距离和方向。它的谈话系统允许它用一个人造嘴与日本人交流。[71] [72] [73]
在20世纪70年代,人工智能受到批评和财务挫折。人工智能研究人员没有意识到他们面临的问题的困难。他们的巨大乐观情绪使人们的期望提高到不可能的高度,当承诺的结果未能实现时,AI的资金就消失了。[74]与此同时,Marvin Minsky对感知器的毁灭性批评几乎完全关闭了连接主义领域(或神经网络)10年。[75]虽然在70年代末AI的公众认知的困难,新的想法在研究逻辑编程,常识推理和许多其他领域。[76]
在七十年代初,人工智能项目的能力有限。即使是最令人印象深刻的只能处理他们应该解决的问题的微不足道的版本,所有的节目在某种意义上都是“玩具”。[77]人工智能研究人员已经开始遇到几个基本的限制,这些限制在20世纪70年代无法克服。虽然其中一些限制在未来几十年会被征服,但其他一些限制仍然阻碍了这一领域的发展。[78]
另见:AI Winter
资助人工智能研究的机构(如英国政府,DARPA和NRC)由于缺乏进展而感到沮丧,并最终切断了几乎所有针对人工智能无向研究的资金。早在1966年ALPAC报告就开始批评机器翻译工作时,这一模式就开始了。花了2000万美元后,NRC终止了所有的支持。[86] 1973年,Lighthill报告了英国人工智能研究状况,批评人工智能完全失败以实现其“宏伟目标”,并导致人工智能研究在该国的瓦解。[87] (本报告中具体提及的组合爆炸问题作为AI失败的原因)。[88] DARPA对CMU 语音理解研究计划的研究人员深表失望,并取消了每年300万美元的拨款。[89]到1974年,人工智能项目的资金很难找到。
汉斯Moravec归咎于他的同事不切实际的预测危机。“许多研究人员被卷入一个越来越夸张的网络。” [90]然而,还有一个问题:自从1969年曼斯菲尔德修正案通过以来,DARPA一直面临越来越大的压力来资助“以任务为导向的直接研究,而不是基本的无向研究”。在60年代进行的创造性,自由探索的资助不会来自DARPA。相反,这笔钱是针对具有明确目标的具体项目,如自动坦克和战斗管理系统。[91]
另见:人工智能哲学
几位哲学家强烈反对人工智能研究人员提出的主张。最早的一个是约翰卢卡斯,他认为哥德尔的 不完备定理表明,一个正式的系统(例如计算机程序)永远不会看到某些陈述的真实性,而人是可以的。[92] 休伯特·德雷福斯嘲笑20世纪60年代的失信和批评AI的假设,认为人类的推理实际参与非常少“符号处理”和大量体现,本能的,无意识的“ 懂得 ”。[93] [94] 约翰塞尔的1980年提出的中国房间论证试图表明,不能说一个程序“理解”它使用的符号(称为“ 意向性 ” 的质量)。如果符号对机器没有意义,Searle认为,那么机器不能被描述为“思考”。[95]
人工智能研究人员并没有认真对待这些评论,因为他们似乎太离谱了。像难处理和常识性知识似乎更直接和严重。目前还不清楚在实际的计算机程序中“ 知道如何”或“ 意向性 ”有什么区别。明斯基说德雷福斯和塞尔“他们误解了,应该被忽略。” [96]在麻省理工学院任教的德雷福斯受到了冷遇:他后来说AI研究人员“不敢和我一起吃午饭”。[97] ELIZA的作者Joseph Weizenbaum觉得他的同事们的'德雷福斯是不专业和幼稚的。虽然他是直言不讳的批评德雷福斯的立场,但他“故意明确表示,他们不是对待人类的方式。” [98]
魏泽鲍姆开始有关于AI严重的道德疑虑时,肯尼斯·科尔比写了医生,一个聊天机器人治疗师。Weizenbaum感到不安,Colby认为他的无意识程序是一种严肃的治疗工具。一场争斗开始了,当Colby没有相信Weizenbaum对该计划的贡献时,情况就没有了。1976年,Weizenbaum发表了“ 计算机力量与人类理性”,认为滥用人工智能有可能贬低人类生命。[99]
一个感知器是一种形式的神经网络在1958年推出了弗兰克·罗森布拉特,谁曾的同学马文·明斯基在科学的布朗克斯高中。像大多数人工智能研究人员一样,他对自己的能力持乐观态度,预测“感知器最终能够学习,做出决定并翻译语言。” 整个20世纪60年代开展了一个积极的研究范式,但随着明斯基和帕佩特 1969年出版的书Perceptrons的出版,它突然停了下来。它表明,感知器可以做什么以及Frank Rosenblatt有严格的限制他的预言被严重夸大了。这本书的影响是毁灭性的:几乎完全没有研究,做联结了10年。最终,新一代研究人员将复兴这一领域,此后它将成为人工智能的重要和有用的组成部分。罗森布拉特不会活着看到这件事,因为他在书出版后不久就在一次划船事故中死去。[75]
早在1958年,John McCarthy在其建议者Taker的建议中就将逻辑引入到AI研究中。[19] 1963年,J. Alan Robinson发现了一种在计算机上实现演绎的简单方法,即解析和统一算法。然而,像麦卡锡和他的学生在20世纪60年代后期尝试的那样,直截了当的实现尤其棘手:程序需要天文学步骤来证明简单的定理。[ 70 ]爱丁堡大学的罗伯特科瓦尔斯基在20世纪70年代开发了一种更有成果的逻辑方法,并很快导致了与法国研究人员Alain Colmerauer和Philippe Roussel的合作,他们创建了成功的逻辑编程语言Prolog。[102] Prolog使用逻辑的子集(Horn子句,密切相关的“规则”和“ 生产规则 ”),其允许易于处理的计算。规则将继续具有影响力,为Edward Feigenbaum的专家系统和Allen Newell和Herbert A. Simon持续开展的工作奠定基础,这将导致Soar及其统一的认知理论。[103]
正如德雷福斯所言,逻辑方法的批评者指出,人类在解决问题时很少使用逻辑。像Peter Wason,Eleanor Rosch,Amos Tversky,Daniel Kahneman等人这样的心理学家的实验提供了证据。[104]麦卡锡回应说,人做什么是无关紧要的。他认为真正需要的是能够解决问题的机器,而不是像人们那样思考的机器。[105]
麦卡锡的方法批评者中有他在麻省理工的全国各地的同事。Marvin Minsky,Seymour Papert和Roger Schank试图解决诸如“故事理解”和“物体识别”之类的需要机器像人一样思考的问题。为了使用像“椅子”或“餐厅”这样的普通概念,他们必须做出与人们通常所做出的所有相同的不合逻辑的假设。不幸的是,这些不精确的概念很难用逻辑表示。杰拉尔德·苏斯曼指出:“用精确的语言来描述基本上不精确的概念并不能使它们更精确。” 将他们的“反逻辑”方法描述为“ sc ”“,与McCarthy,Kowalski,Feigenbaum,Newell和Simon使用的” 整齐 “范式相反。[107]
1975年,在一篇开创性的论文中,明斯基指出,他的许多“sc”“研究人员正在使用相同类型的工具:一个框架,它捕捉我们关于某事的所有常识假设。例如,如果我们使用鸟的概念,就会立即想到一组事实:我们可以假设它飞行,吃蠕虫等等。我们知道这些事实并不总是正确的,并且使用这些事实扣减不会是“逻辑”,但假设这些结构性集是部分情况下,我们说的和想的一切。他称这些结构为“ 框架 ”。Schank使用了他称之为“ 脚本 ”的框架版本“用英语成功回答关于短篇小说的问题。[108]多年以后,面向对象编程将采用AI关于框架研究的” 继承 “ 的基本思想。
在20世纪80年代,世界各地的企业都采用了一种称为“ 专家系统 ” 的人工智能计划,知识成为主流人工智能研究的重点。在同一年里,日本政府积极地为人工智能提供第五代计算机项目。20世纪80年代初的另一个令人鼓舞的事件是约翰霍普菲尔德和大卫鲁梅尔哈特的工作中的联结主义的复兴。AI再一次取得了成功。
一个专家系统是回答问题或解决关于知识的特定领域的问题,使用逻辑程序规则,是根据专家的知识的。最早的例子是由Edward Feigenbaum和他的学生开发的。Dendral于1965年开始从光谱仪读数中确定化合物。1972年开发的MYCIN诊断出传染性血液疾病。他们证明了这种方法的可行性。[109]
专家系统将自己限制在一个特定知识的小范围内(从而避免常识性知识问题),而且它们的简单设计使得程序相对容易构建,并在其到位后进行修改。总而言之,这些计划被证明是有用的:AI迄今为止尚未能实现的东西。[110]
1980年,一个叫专家系统XCON在完成CMU为数字设备公司。这是一个巨大的成功:它在1986 年前每年为公司节省4000万美元。[111]世界各地的公司开始开发和部署专家系统,到1985年,他们花费了超过10亿美元的AI,其中大部分用于人工智能部门。一个行业长大以支持它们,包括Symbolics和Lisp Machines等硬件公司以及IntelliCorp和Aion等软件公司。[112]
专家系统的力量来自他们所掌握的专业知识。它们是AI研究中一个新的方向的一部分,在整个70年代一直在取得进展。“人工智能研究人员开始怀疑 - 不情愿,因为它违反了简约科学规范 - 智力可能很好地基于以不同方式使用大量不同知识的能力,” [113] Pamela McCorduck写道。“从20世纪70年代开始,他的一个很好的教训就是,聪明的行为非常依赖于处理知识,有时甚至是非常详细的知识,而不是一个特定任务所在的领域。” [114] 基于知识的系统和知识工程成为了人工智能研究在20世纪80年代的一大焦点。[115]
20世纪80年代,Cyc也诞生了,Cyc是直接攻击常识性知识问题的第一次尝试,创建了一个庞大的数据库,其中包含普通人知道的所有常见事实。开始并领导该项目的道格拉斯莱纳特认为,没有捷径 - 机器知道人类概念意义的唯一途径就是一次一个人地教他们一个概念。该项目预计不会完成数十年。[116]
象棋程序HiTech和Deep Thought于1989年击败了国际象棋大师。这两个程序均由卡内基梅隆大学开发; 深思想的发展为深蓝铺平了道路。[117]
1981年,日本国际贸易和工业部为第五代计算机项目拨出8.5亿美元。他们的目标是编写程序并构建可以进行对话,翻译语言,解释图片和人类理性的机器。[118]许多到懊恼scruffies,他们选择的Prolog作为主计算机语言的项目。[119]
其他国家回应了自己的新计划。英国开始了3.5亿欧元的Alvey项目。美国公司财团组成了微电子和计算机技术公司(或“MCC”),为AI和信息技术的大型项目提供资金。[120] [121] DARPA反应为好,创始战略计算计划和三倍1984和1988年之间在其投资AI [122]
具有四个节点的Hopfield网络。
1982年,物理学家约翰霍普菲尔德能够证明一种神经网络(现在称为“ Hopfield网络 ”)能够以全新的方式学习和处理信息。大约在同一时间,David Rumelhart推广了一种训练神经网络的新方法,称为“ 反向传播 ”(Paul Werbos多年前发现)。这两项发现使1970年以来基本被放弃的连接主义领域重新焕发了生机。[121] [123]
1986年并行分布式处理的出现使这一新领域得到了统一和启发--Rumelhart和心理学家James McClelland编辑了两卷论文。在20世纪90年代,当神经网络开始被用作引擎驱动程序,如光学字符识别和语音识别时,神经网络将在商业上取得成功。[121] [124]
20世纪80年代,商业界对AI的迷恋在经济泡沫的典型模式中上升并下降。崩溃是在感知 AI的政府机构和投资者-现场持续,尽管批评做出的进步。来自相关机器人领域的研究人员Rodney Brooks和Hans Moravec争论了一种全新的人工智能方法。
“ AI冬季 ”一词是由1974年资金削减后幸存下来的研究人员创造的,当时他们担心专家系统的热情已经失控并且肯定会失望。[125]他们的担忧是有根据的:在20世纪80年代末和90年代初,人工智能遭遇了一系列金融挫折。
在天气变化的第一个迹象是市场专门AI硬件从1987年台式电脑突然崩溃的苹果和IBM已经逐渐获得越来越广泛的速度和力量,并在1987年,他们变得比更贵更强大的Lisp机所作象征和其他。购买它们不再有很好的理由。价值5亿美元的整个行业在一夜之间被拆除。[126]
最终,最早成功的专家系统(如XCON)证明其维护成本太高。他们很难更新,他们无法学习,他们是“ 脆弱的 ”(即当他们提供不寻常的投入时,他们可能会犯一些怪诞的错误),并且他们陷入了多年前已经发现的问题(如资格问题)。专家系统被证明是有用的,但只有在一些特殊的情况下。[127]
在二十世纪八十年代后期,战略计算计划削减了对人工智能的“深入和残酷”资助。DARPA的新领导层已经决定人工智能不是“下一波”,并将资金投向那些似乎更有可能产生即时结果的项目。[128]
到了1991年,1981年为日本第五代项目制定的令人印象深刻的目标没有实现。事实上,其中一些,像“进行一次随意的对话”,到2010年还没有实现。[129]与其他AI项目一样,期望值远高于实际可能的值。[129]
主要文章:Nouvelle AI,基于行为的AI,位于,并体现认知科学
在20世纪80年代后期,一些研究人员提出了一种基于机器人技术的全新的人工智能方法。[130]他们认为,为了显示真实的情报,机器需要有一个身体 - 它需要感知,移动,生存和处理世界。他们认为,这些感觉运动技能对于像常识推理这样的更高水平的技能是必不可少的,抽象推理实际上是最不有趣或重要的人类技能(参见Moravec的悖论)。他们主张“自下而上”建设情报。[131]
这种方法从六十年代以来一直不受欢迎的控制论和控制理论中恢复了出来。另一个前兆是戴维马尔,他在70年代后期从理论神经科学的成功背景来到麻省理工学院,领导该小组研究视力。他拒绝一切象征性的方法(这两个 麦卡锡的逻辑和明斯基的帧),认为AI需要了解从下往上视野的物理机械之前的任何象征性的处理发生。(Marr的工作将在1980年被白血病所扼杀。)[132]
在1990年的论文“大象不玩国际象棋,” [133]机器人研究员罗德尼·布鲁克斯把矛头直指的物理符号系统假说,认为既然“世界本身就是最好的模型符号并不总是必要的。这是总是精确到最新,它的每一个细节总是被人们所了解,其中的诀窍在于适当地并且经常地感知它。“ [134]在二十世纪八十年代和九十年代,许多认知科学家也拒绝了心智的符号处理模式,并认为身体对于推理是必不可少的,这一理论称为体现的心灵论题。[135]
人工智能领域现在已有半个多世纪的历史,最终实现了一些最古老的目标。它开始在整个科技行业成功使用,尽管在幕后。其中一些成功是由于计算机能力的增强,一些是通过关注具体的孤立问题并以最高标准的科学问责追求这些问题而实现的。尽管如此,人工智能在商业世界中的声誉至少不如原始。在该领域内,人们对AI未能实现20世纪60年代捕捉到世界想象力的人类智能梦想的理由几乎没有一致意见。综合起来,所有这些因素都有助于将人工智能分解为针对特定问题或方法的竞争子领域,[136] AI既更加谨慎,更成功比它曾经去过。
在1997年5月11日,深蓝成为第一个打败卫冕世界国际象棋冠军Garry Kasparov的电脑国际象棋系统。[137]所述的超级计算机是由IBM制造的框架的专用版本,并且是能够处理每秒两次尽可能多的移动,因为它的第一个匹配(其深蓝失去)时具有,据报道,每秒2亿个移动。该活动通过互联网直播并获得超过7400万次点击。[138]
2005年,一位斯坦福机器人通过自行驾驶沿着未知沙漠路线行驶131英里赢得了DARPA大挑战赛冠军。[139]两年后,从CMU一队获得DARPA城市挑战赛通过在城市的环境中自主导航55英里同时遵守交通隐患和所有的交通法规。[140] 2011年2月,在危险之中! 智力竞赛表演赛,IBM的问答系统,沃森,击败了两个最大的危险!冠军,布拉德鲁特和肯詹宁斯,大幅度。[141]
这些成功并不是由于一些革命性的新范式,而主要是由于工程技术的繁琐应用以及当今计算机的巨大威力。[142]事实上,深蓝电脑比快10万次费伦蒂马克1是克里斯托弗·斯特雷奇教下棋1951 [143]这显着增加是由测量摩尔定律,其预测的速度和内存容量电脑每两年翻一番。“原始计算机能力”的根本问题正在慢慢被克服。
20世纪90年代,被称为“ 智能代理 ”的新范式被广泛接受。[144]虽然早期的研究人员提出了模块化的“分而治之”的办法,以AI,[145]的智能代理并没有达到它的现代形式,直到犹太珍珠,艾伦纽厄尔,莱斯利·P·卡尔布林,和其他人带来了从概念决策理论和经济学进入人工智能的研究。[146]当经济学家的一个的定义理性剂结婚了对计算机科学一个的的定义对象或模块,智能代理范例已完成。
一个智能代理是感知周围环境,并采取最大限度提高成功的机会操作的系统。根据这一定义,解决特定问题的简单方案是“智能代理”,因为是人类和人类的组织,如公司。该智能代理模式定义人工智能研究的“智能代理的研究”。这是AI早期定义的概括:它不仅仅是研究人类的智能,它研究各种情报。[147]
这个范例让研究人员有权研究孤立的问题,并找到既可验证又有用的解决方案。它提供了一种共同语言来描述问题并相互分享他们的解决方案,以及其他也使用抽象代理概念的领域,如经济学和控制理论。希望有一天,一个完整的代理体系结构(如Newell的 SOAR)将允许研究人员利用互动智能代理构建更多功能和智能系统。[148] [148]
人工智能研究人员开始开发和使用复杂的数学工具,比过去更多。[149]有一个很多的那个AI需要解决的问题都已经在类似领域工作的研究人员普遍认识数学,经济学和运筹学。共享的数学语言使得与更成熟和成功的领域进行更高水平的合作,并实现可衡量和可证明的结果。人工智能已经成为更严格的“科学”学科。罗素和诺维格(Russell&Norvig,2003)形容这只不过是一场“革命”和“ 整洁的胜利”。[150] [151]
朱迪亚·珍珠 1988年的高影响力书籍[152]将概率和决策理论带入了人工智能。在众多使用的新工具中,有贝叶斯网络,隐马尔可夫模型,信息理论,随机建模和经典优化。还为诸如神经网络和进化算法之类的“ 计算智能 ”范例开发了精确的数学描述。[150]
AI研究人员最初开发的算法开始出现在大型系统中。AI已经解决了很多非常困难的问题[153]被证明是整个行业的技术有用,他们的解决方案,[154]如数据挖掘,工业机器人,物流,[155] 语音识别,[156]银行软件,[ 157]医疗诊断[157]和谷歌的搜索引擎。[158]
在20世纪90年代和21世纪初,AI在这方面的成就几乎没有得到任何好评。许多AI最伟大的创新已经被沦为计算机科学工具箱中另一件物品的地位。[159] Nick Bostrom解释说:“很多先进的AI已经过滤到一般应用中,通常没有被称为AI,因为一旦某个东西变得足够有用并且足够普遍,它就不再被标记为AI了。” [160]
在20世纪90年代,人工智能中的许多研究人员故意通过其他名称来称呼他们的工作,如信息学,基于知识的系统,认知系统或计算智能。部分原因可能是因为他们认为他们的领域与人工智能有着根本的区别,而且新名称有助于获得资金。至少在商业世界中,正如“纽约时报”2005年报道的那样,AI Winter的失败承诺继续困扰着21世纪的AI研究:“计算机科学家和软件工程师避免使用人工智能这个术语,因为害怕被视为狂野眼睛梦想家“。[161] [162] [163]
1968年,阿瑟克拉克和斯坦利库布里克曾想象到,到2001年,机器将以与人类能力相匹配或超过能力的智能存在。他们创造的角色HAL 9000基于许多领先的AI研究人员的共同信念,即在2001年之前,这种机器将存在。[164]
在2001年,AI创始人Marvin Minsky问道:“所以问题是为什么我们在2001年没有获得HAL?” [165]明斯基认为,答案是核心问题,像常识推理,都被忽视,而大多数研究人员所追求的东西一样的商业应用神经网络或遗传算法。另一方面,约翰麦卡锡仍然指责资格问题。[166]对于光芒Kurzweil的问题是电脑的电源,并使用摩尔定律,他预测,随着人类水平的智能机将由2029年出现[167] 杰夫·霍金斯认为神经网络研究忽视了人类皮质的基本属性,更喜欢简单的模型,这些模型已经成功地解决了简单的问题。[168]还有很多其他的解释,并且每个都有相应的研究计划在进行。
在21世纪的前几十年,获取大量数据(称为“ 大数据 ”),更快的计算机和先进的机器学习技术已成功应用于整个经济中的许多问题。事实上,麦肯锡全球研究院在他们的着名论文“大数据:创新,竞争和生产力的下一个前沿”中估计,“到2009年,美国经济中几乎所有的行业至少平均存储了200TB的存储数据” 。
到2016年,人工智能相关产品,硬件和软件市场已经达到80多亿美元,“纽约时报”报道称对人工智能的兴趣已经达到“疯狂”。[169]大数据的应用也开始进入其他领域,例如生态学培训模式[170]和经济学中的各种应用。[171]在进展深度学习(特别是深卷积神经网络和递归神经网络)开车在图像和视频处理,文本分析,甚至是语音识别的进展和研究。[172]
主要文章:深入学习
深度学习是机器学习的一个分支,它通过使用具有许多处理层的深度图来模拟数据的高级抽象。[172]根据本通用逼近定理,深岬是没有必要为一个神经网络,以便能够逼近任意连续函数。即便如此,深层网络有助于避免的浅层网络(如过度配合)也存在很多常见问题。[173]因此,深层神经网络能够比他们的同行浅,切实产生更复杂的模型。
但是,深度学习有其自身的问题。递归神经网络的一个常见问题是消失梯度问题,即渐变层之间的渐变逐渐收缩并逐渐消失,因为它们四舍五入为零。已经有很多方法可以解决这个问题,比如Long short-term memory unit。
最先进的深度神经网络架构有时甚至可以在诸如计算机视觉领域,特别是像MNIST数据库和交通标志识别这样的领域与人类的精度相媲美。[174]
由智能搜索引擎驱动的语言处理引擎可以轻松击败人类回答一般的问题(如IBM Watson),深度学习的最新发展已经在与人类竞争中产生了惊人的结果,如Go和Doom(它是FPS,引发了一些争议)。[175] [176] [177] [178]
----
-End-
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。