当前位置:   article > 正文

对《人工智能的进化》这一人工智能方面科普书籍的学习/摘抄/总结_市井智慧玩转书本智慧

市井智慧玩转书本智慧


前言

注意:该科普书籍主要介绍‘老式人工智能’,并不是当今人工智能学习主流。
附:本文主要作为个人学习笔记,且是第一次写博客,并不专业,请多谅解。


一、什么是人工智能?

“自适应机器学习”(adaptive machine learning),即AML

  • 设计理念:让计算机系统通过对大量数据进行分析,掌握智能行为方式(关键词——大数据)
  • 吴恩达:“你将海量数据输入程序,让数据说话,让软件自动从数据中学习。”(关键词——无监督的自动学习数据)
  • AML的成功因素:
    1、拥有可供分析处理的海量数据;
    2、掌握功能强大的能够处理这些数据的计算技术;
    3、高速计算机

“老式人工智能”(Good Old-fashioned AI),简称GOFAI

  • 发展愿景:不致力于分析海量数据,而是专注于常识。(补充:‘愿景’是因为现在的潮流是机器学习即AML,所以该理念一直都没能实现,只能称为愿景)
  • 麦卡锡:“如果一款程序可以根据已知信息和指令,自主推断由此可能导致的各种直接结果,我们就说这款程序具有常识”

注:AML和GOFAI都需要学习经验,但强调重点不同:AML——数据;GOFAI——语言。

图灵测试

  • 为什么人类语言在老式人工智能领域有举足轻重的作用?
    1、利用先前通过语言获得的信息解决新问题、新情况;
    2、语言是研究智能行为的绝佳媒介。
  • 图灵在论文中建议:我们应该将注意力从如何制造机器、机器外观如何以及其内部结构如何运转等方面转移到可观察的外部行为上。

由此↑↑↑ 推出了“图灵测试”

  • 图灵测试的几个方面
    1、实验依据——语言是测试智力的终极手段;
    2、测试关键——对话可以涉及任何话题;
    3、探讨目的——机器能像具有思考能力的人一样运行吗?

哲学争论

  • 理论依据——《中文房间理论》(在此不做详细介绍)
  • 哲学家约翰·瑟尔(John Searle)提出,理解(思维或智能)的内涵远大于可观察的外部行为,即便这种行为可以与所谓的模仿游戏一样涉及范围较大。
  • 本书作者批驳此观点的理由是:
    1、无法证明瑟尔在记下这本手册的同时未掌握汉语;
    2、根据所需知识量和难度,根本不可能存在这种手册

二、巨型拼图之谜

“巨型拼图”——人脑的思维过程

  • 在对人脑的思维过程的研究途中,各个不同领域的科学家都提出了他们自己的见解
  • 我们需要关注语言,因为心智需要通过语言来明确表达观点。
  • 我们需要关注心理学,即人的思维方式是什么,以及人与其他动物相比有何异同。
  • 我们需要关注神经学,即大脑如何形成心智。
  • 我们需要关注进化论,即人类这一物种在进化的压力下如何继续发展。
  • 但是这些观点,都只能称之为拼图碎片,
  • 而我们在面对人脑思维这个复杂巨大的谜团时,妄图把一个拼图碎片当整体是不行的,所以我们应该承认我们仅仅是在处理拼图的一部分,并尽己所能去发现要如何与其他碎片有效组合。
  • 为参考方便,把拼图的几个拼块混称为整个拼图的错误称为“巨型拼图”问题

智能行为

  • 在本书中我们关注智能行为,即行为主体对下一步该做什么做出的判断,称为智能选择行为。
  • 为什么我们关注智能行为?而不选择上述列出的其他科学家的观点?在此列举心理学和神经科学的局限性。
  • 心理学的局限——大多仅能从外部观察研究对象,因此在研究过程张受到极大的限制。
  • 神经科学的局限——最多只能观察到运行过程,而多种不同运行的原理可能可以导致同种运行过程,所以难以解析背后真正的原理。
  • 由飞行器制造得到的灵感,我们研究思维是如何引导智能行为有两种途径
    1、研究人脑(及其他生物的大脑);
    2、将注意力放在思维过程本身,找到适用于人脑及其他思考行为的普遍原理。

  • 设计立场总结:我们无须在细节上纠结人脑如何工作,而应将注意力转移到人脑所作的工作上,研究人脑是如何完成这项工作的,发现在此过程中什么因素起到了作用,什么未起作用。

  • 当然,这种设计立场也同时存在缺陷,我们无法了解到意识思维的主观感受(思维结果带给思维主体的感受),但在本书中的研究对象是可观察的智能行为以及产生的过程,所以在此不讨论缺陷部分。

三、知识与行为

超越刺激与反应

  • 约翰·麦卡锡发现:人们在日常行为中表现出的突出特点就是知识的决定作用;
  • 他首次提出:若想理解智能行为,我们就应研究在背后支持智能行为的知识,以及这些知识是如何影响人类行为决策的。
  • 从“谈论《2001:太空漫游》”这个故事中得到的观点:掌握知识,并利用知识对自身行为施加影响,是构成人类行为的本质。
  • 人类会采取行动以应对刺激:
    1、直接映射:我们感受到一些东西,并对此有所反应;
    2、间接映射:我们感受到一些东西,产生的反应却取决于我们拥有的信念。

知识与信念

  • 知识的基本含义:知道某事意味着“某人是这样而不是那样看世界”。
  • 除此之外,我们还关心信念这一概念,例如:当我们觉得一观点不可靠时用的就不是判断的命题态度,而是怀疑的命题态度,“认为”、“对…有信心”诸如此类动词的表述仅在表明不同的信念水平。
  • 显然,一个人如何使用信念取决于他对该信念的确信程度,我们称为信任度。但在本书中我们不区分知识和信念,因此不必考虑信念度。

意向立场

  • 哲学家丹尼尔·丹尼特认为:当我们看待复杂的系统(生物或其他系统)时,所采取的“意向立场”往往是有用的(指包含信念、目标、欲望和意图等在内的立场)。
    例如:恒温器认为房间温度高于设定,试图降温。
  • 在某些情况下,意向立场是有用的(如下棋程序),它能够帮我们有效地与系统进行交互,但不必把立场的作用过分夸张或拟人化(如恒温器)。
  • 丹尼尔·丹尼特核心观点:立场只是一种观察复杂系统的方式,可能有用,可能没用。
  • 这引发了一个有趣的话题:所有关于人类知识与信念的讨论都叫做立场吗?我们能像讨论计算机系统、狗和恒温器那样,讨论人类的行为具有的信念、欲望和意图吗?——将在第8章和第9章中详细介绍

智能行为

  • 智能行为:基于你所知的内容决定下一步要做什么。
  • 心理学家尼古拉斯·汉弗雷(Nicholas Humphrey):当一个动物从证据中得到有效的推理时,它就会表现出智能行为。
  • 在智能行为方面,我们关注的重点是人们认为是适当、合理、智慧的行为,而不是试图研究智能行为对于人类现实选择产生的影响(因为会有多种因素干扰),这一认识将使我们的研究内容变得更加可控。

四、真智能还是假智能

问题导入

  • 从人工智能角度提出一个有趣的问题:
    真正掌握信息的系统与能够在网络数据库里搜罗相关资料的系统之间有何区别?
    在智能系统中,以文本形式存在的“大数据”真的能取代知识的掌控地位吗?
    智能行为难道仅仅是一种令人信服的错觉?
  • 因此本章真正要研究的问题是:如果没有相应的知识,是否某些形式的可观察行为就难以表现出来?
  • 该问题的难点在于:即使某人见识短浅,却依旧能通过测试。

图灵测试-谈话机器人

  • 图灵测试关注的重点是外部可观察行为。我们在这一章中关注:非正式的对话是一种极易造假的行为。
  • 而从当今的研究成果来看,图灵测试并没有真正激发人工智能研究人员去研发更优秀的会话者,却导致欺骗询问者的技巧越来越多。
    我们希望这些智者跳出怪圈,但没想到得到的却是超一流的舞台魔法。
    ~~
  • 但投机取巧是不可行的。
  • 例如:询问“鳄鱼能跑障碍赛吗?”
    我们可以利用知识库和常识进行分析作答,但由于网上不存在将两者一起讨论的言论,因此机器人无法搜寻到有效信息。
  • 上述问题也称为长尾现象。
  • 长尾现象的理念:尽管大多数在线搜索引擎的搜索重点都是一些常见的主题(如娱乐、体育、政治、猫咪视频等),但还有很大一部分内容与这些主题联系甚微,即呈长尾分布。这部分包含的话题就非常罕见了。
  • 但也有别的回答方式,让你不需要深入理解问题即可作答。
  • 封闭世界假设(closed-world assumption,CWA)
    “如果没有证据证明某物的存在,我们可以认为其不存在。”
    ↑像这种投机取巧的方法就可以正确回答而与问题。
  • 所以我们需要更加谨慎地设置问题,并深入研究被试者会如何应答。

回归GOFAI

  • 目前人工智能的研究已不在知识方面,大部分已脱离了约翰·麦卡锡的早期愿景。
  • 研究人员不再关注人们回答问题的能力,而将重点转移到其他形式的行为,尤其是对背景知识依赖程度较低的行为。
  • 例如:AWL的研究人员专注于从样品中自动获取必要的模式和特征来对物体进行识别。

五、有经验的学习与没有经验的学习

  • 如果与AML领域的研究人员探讨他们的研究内容,我们会得出这样的结论:学习就是从数据(或周围环境)当中总结规律和特点,并将其提取,而不是通过导师授课或者阅读教材学习。

我们如何学习词语?

  • 引入问题【巨型拼图问题】:我们学会母语,学会用词语和句子表达思想的的过程,是通过自己的主观感受并连接生活中发生的事情而进行自我学习,而非通过任何口头或书面学习,所以忽略了那些依靠其他途径学到的知识。
  • 表面上看,对于人类,通过经验这种较为直接的方式(饥饿等词)与通过语言学习词语(如化身等词)相比,显得更为基础,也更有意义。
    ——因为通过语言习得词语,我们必须掌握足够的语言能力才能理解对于词语的解释。
  • 那么更为基础的问题可能便是:我们是如何掌握这种初始语言的?(但至今语言学家仍然无法知道,孩子们是如何学会一门语言的)
  • 此外,还有另一个同样让人兴奋的话题:我们如何通过使用语言来学习更多语言,即人们所说的引导语言问题(我们在掌握语言后,如何能够依靠语言学习数学、科学和技术背后的专业术语,将在下一章做详细介绍)
  • 我们如何学习事实? - 经验学习和语言学习
  • 我们如何学习行为? - 大多通过经验

我们如何超越经验?

  • 当总结我们是如何认识周围的世界时,我们发现,似乎至少有两种相互独立的机制在起作用。
    1、通过经验进行学习,我们需要反复收看或收听相关经验数据,可能还会经历相当多的试验和摸索。
    2、通过语言进行学习,这种情况可能只需要收看或收听一次相关数据就能达到目的。
  • 语言的优异之处,例如通过文字,我们可以在自己的一生中了解前人的生活经历,我们无需经历前人的过程,就可以学到他们的经验。

塞缪尔·早川(S.I.Hayakawa)曾说:“我们并非只有一次生命;如果我们能够阅读,就能够随心所欲地拥有多次生命和多种活法。”

六、书本智慧与市井智慧

书本智慧

  • 书本上的知识——书本智慧
  • 通过直接经验或师徒传帮带获得的知识——市井智慧

斯科特·博克顿(Scott Berkun):“市井智慧完爆书本智慧。”

  • 似乎人类可以不依靠书本知识,仅靠师徒传帮带的方式就可以过得不错。
  • 但是反过来会怎样?人们能否仅凭书本知识,基本不靠直接经验而生存呢?这似乎不太可能,然而,还是有一些反例,虽然较为罕见,但值得我们注意。
  • 例如: 海伦·凯勒的智慧
  • ↑从中我们可以看到,符号的重要意义——“符号本身具有生命力,不仅可以被使用,还可以被讨论。”
  • 人类与动物之间最大的差异:人类能够学习书本知识,人类语言不仅用于即时通信,而且用于进一步扩展我们的语言、规划、工具制造和文化

书本中的市井智慧

  • “市井智慧完爆书本智慧”的原因: 二者的题材内容不同,而非获取方式不同。换句话说,在其他条件完全相同的情况下,实践知识拿来就能用,直接作用于下一步决策,比起阳春白雪的抽象理论,更容易引起我们重视。
  • 而且很多知识都不是通过直接经验学到的 。(如:只有极少数人需要直接与冬眠的熊打交道,其他人都说通过这些人了解熊冬眠的知识)
  • 我们学习科学、数学和技术的过程也是如此。

七、长尾理论与培训的界限

  • 长尾分布:如果某些个体事件虽然极为罕见,但对于整体却意义非凡,我们就将这种事件的分布称为长尾分布。

长尾现象带来的难题

  • 当你的抽样数据中有极个别的超大数据时, 假设:前几次抽样你都没有遇见这些个例,你得到了稳定的平均值,可当你再一次扩大抽样范围,遇见了个例,然后其对你的平均值造成了巨大影响,你要怎么做?
  • 如果你所有的专业知识都来自于抽样数据,那你可能永远都无法察觉到这些牵一发而动全身的小概率事件。

如何处理突发事件

  • 尽管突发事件非常罕见,但我们总会遇见各种预料不到的情况。
  • 通常情况下,我们并不指望一个智能代理能从那些极为罕见、一般不会出现的经验中学到什么。如果可以忽略这些罕见事件,系统仍然可以正常运行;如果无法忽略,且它们又是类似于长尾现象的情况,那么只依赖于过往经验的系统就会崩溃。

无意识与有意识

  • 无意识的活动: 身体参与其中、心思却在别处的活动,这种活动以经培训获得的技能为依托。
  • 有意识的活动: 需要我们注意力集中的活动,这种活动重视个体对于活动本身的注意程度,而非大量的培训。
  • 刨除技巧,正是对人类如何处理罕见事件的关心,促使我们不断地超越自适应机器学习的研究。我们想要了解的是人类能够做什么、如何做,而不是可能做一些类似的事情。
  • 但这仍然给我们带来了一个重要的问题:这一机制的本质是什么?

八、符号与符号处理

符号的逻辑运算

  • 符号处理的过程: 我们从给定的字符串开始,按照某些既定规则进行处理,最终得到另一串字符。
  • 在处理符号逻辑问题时,仅需少量的规则,就足以从已知条件中获取所需的结论。
  • 符号处理中有趣的现象: 除了将已知条件的文字部分转化到方程或是逻辑表达式的符号表达,这种转化过程外,其余处理过程可以完全机械化进行。

符号的意义(我们为什么要使用符号?)

  • 最早由艾伦·图灵于20世纪30年代提出:写下一串字符,是我们讨论数字映射以及字符串映射处理的前提。现在,我们将这种字符串处理的过程称为数字计算。我们像写下字符串一样写下数字,目的还是计算。

一切都源自图灵机

  • 图灵想要证明:有的数字可以精确计算,但是计算的过程不单涉及机械化计算。这与有些数学家的想法截然相反。为了证明该想法,他需要清楚了解机械化地计算数字有何意义。这也是他提出”图灵机“的初衷。

九、基于知识的系统

符号

  • 莱布尼茨认为:我们与想法之间没有直接的互动,而是与代表这些想法的符号表达式互动。
  • 莱布尼茨建议我们对待这些想法时,应像对待以某种方式写下来的符号形式一样,然后以某种形式进行运算,即某种符号处理,以便于向下一个想法过渡。
  • 换句话说,莱布尼茨做出了以下类比:
    1、算术规则使我们运用具体的符号就能解决抽象的数字问题。关于符号的处理反映了其代表的数字之间的关系。
    2、某种逻辑的规则使我们运用具体的符号就能解释抽象的想法。关于符号的处理反映了其代表的想法之间的关系。

知识表示假说

  • 麦卡锡关于人工智能的基本设想如下:只有成为基于知识的系统,才能达到人类智能的级别。
  • 知识表示假说指的是:真正的智能系统将以知识为基础。 也就是说,在处理符号表示的过程中,能够表达意向立场的系统都是通过人为设计达到的。
  • 假设是真的吗? 可以思考以下两个问题:
    1、我们有没有理由相信(或不相信):人类天生(或者通过进化)就是以知识为基础的?
    2、我们有没有理由相信(或不相信):我们建立具有人类智能水平的人工系统,即人工智能系统的最佳方法,就是将系统设置为基于知识的系统?
  • ↑但这两个问题都没有明确的答案,但我们会确信,只有知识型的设计才能解释人们的所作所为。我们将研究各种各样的人造系统设计,我们将会看到知识型系统产生的像魔术一样的行为。换句话说,在第二个问题的引导下,我们能够回答第一个问题。
  • 对于第二个问题,则为两个基本的未解之题所阻拦——被成为表示和推理问题。

知识表示和推理

  • 要用什么样的符号结构来表达智能系统的想法?
  • 要怎样处理符号才能传播其代表的想法,以便它们以正确的方式影响行为?

麦卡锡: 人们会相信,设想的这个系统能够计算出其一切被告知及存储知识的直接逻辑后果。这个属性与人类所具有的常识具有共同之处。

  • 但实际上,我们需要考虑的与我们所知的逻辑后果之间还有巨大的鸿沟。
  • 我们还剩下一个经验性的问题:怎样的计算设计才足以解释其对应的智能行为呢?

十、人工智能技术应用

人工智能的未来

阿瑟·C·克拉克(Arthur C.Clarke)第一定律如是说:如果一位德高望重的科学家说,某件事是有可能的,那么他几乎肯定是正确的。如果他说某件事是不可能的,那么他或许已经谬之千里了。

  • 为什么人工智能到现在都没有实现?业内人士主要将精力集中于使用人工智能解决方案处理家务、医药、探险和灾后重建等领域的实际问题,对开发真正的智能机器人所要付出的巨额成本则敬而远之。

自动化是好是坏?

  • 随着计算机和机器人变得越发智能,它们承担了越来越多的原本要靠人工完成的工作。那么,我们该怎么办呢?当人类劳动在社会商品和服务中所占的比例不断减少时,我们的财富该如何分配?
  • 答案取决于我们想要一个什么样的社会。
  • 但无论如何,这个严肃的问题需要谨慎对待。

超越智能与奇点

  • 霍金认为:人工智能可能意味着人类的终结。
  • 除了政策和管理问题之外,在人工智能领域,的确有个问题需要额外关注:人工智能技术能够自主决定从事不当行为。
  • 奇点: 机器人在被创造出来后不断自我进化,以至于远远超越了它们的设计者。

真正的风险

  • 真正的危险: 让不具备常识的系统做出需要依靠常识判断的决定(人们将尚未达到完全智能的计算机系统视为智能,并赋予其控制其他纪祁,自行做出决定的权力)。
  • 在近期人工智能领域的研究中,注重博学的GOFAI已被注重培训的AML取而代之。
    危险就在于将良好的培训视为决定因素。
    我们要问自己:若长尾效应出现(培训失败的情况),系统该怎么做?
    如果系统对于此类问题没有合适的应对方案,我们就应该主动介入,不能让系统处于无人监督、自作主张的状态。

总结

本书共十章,已记录完毕。
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Gausst松鼠会/article/detail/64150
推荐阅读
相关标签
  

闽ICP备14008679号