赞
踩
关联(第一层级):通过观察寻找规律。
如果观察到某一事件改变了观察到另一事件的可能性,我们便说这一事件与另一事件相关联。
基于被动观察做出预测。典型问题是“如果我观察到…会怎样?”
当今的人工智能仍处于第一层级,强人工智能的目标是制造出拥有人类智能的机器,让它们能与人类交流并指导人类的探索方向。而深度学习只是让机器具备了高超的能力,而非智能。这种差异是巨大的,原因就在于后者缺少现实模型。
例如,如果无人驾驶汽车的程序设计者想让汽车在新情况下做出不同的反应,那么他就必须明确地在程序中添加这些新反应的描述代码。机器是不会自己弄明白手里拿着一瓶威士忌的行人可能对鸣笛做出的不同反应的。处于因果关系之梯的最底层的任何运作系统都不可避免地缺乏这种灵活性和适应性。
干预(第二层级):干预比关联更高级,因为它不仅涉及被动观察,还涉及主动改变现状。
典型问题是“如果我们实施…行动,将会怎样?”
另一热门问题是“怎么做?”
无论数据集有多大或者神经网络有多深,只要使用的是被动收集的数据,我们就无法回答有关干预的问题。
一个足够强大的、准确的因果模型可以让我们利用第一层级(关联)的数据来回答第二层级(干预)的问题。没有因果模型,我们就不能从第一层级登上第二层级。这就是深度学习系统(只要它们只使用了第一层级的数据而没有利用因果模型)永远无法回答干预问题的原因,干预行动其本意就是要打破机器训练的环境规则。
反事实(第三层级):因果关系之梯的最高层。
反事实与数据之间存在着一种特别棘手的关系,因为数据顾名思义就是事实。数据无法告诉我们在反事实或虚构的世界里会发生什么,在反事实世界里,观察到的事实被直截了当地否定了。
典型问题是“假如我当时做了…会怎样?”和“为什么?”两者都涉及观察到的世界与反事实世界的比较。
如果第一层级对应的是观察到的世界,第二层级对应的是一个可被观察的美好新世界,那么第三层级对应的就是一个无法被观察的世界(因为它与我们观察到的世界截然相反)。
为了弥补第三层级与前两个层级之间的差距,我们需要构建一个基础性的解释因果过程的模型,这种模型有时被称为“理论”,甚至(在构建者极其自信的情况下)可以被称为“自然法则”。简言之,我们需要掌握一种理解力,建立一种理论,据此我们就可以预测在尚未经历甚至未曾设想过的情况下会发生什么----这显然是所有科学分支的圣杯。但因果推断的意义还要更为深远:在掌握了各种法则之后,我们就可以有选择的违背它们,以创造出与现实世界相对立的世界。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。