当前位置:   article > 正文

人工智能下一个前沿:可解释性_可解释、可通用的下一代人工智能方法

可解释、可通用的下一代人工智能方法

https://www.toutiao.com/a6708708718810235403/

 

不确定性是AI的一个特征,而不是一个bug。

人工智能下一个前沿:可解释性

 

十亿美元的问题

50多年来,计算机已成为我们生活的一部分。他们开始时只是大公司使用的这些巨大的装置,他们最新的迭代是我们口袋里的小巧智能手机。

在我们与计算机交互的整个历史中,我们主要使用它们作为扩展自身能力的手段。它们使我们能够更有效地编写,更轻松地编辑照片和视频,以便即时访问信息。

在这样做的过程中,他们遵循了古老的机器范式:以可靠的方式运作的结构,其存在的唯一目的是使我们的生活更容易完成一项特定任务。从战车到发动机和汽车,再到电脑,创造所有这些东西的唯一目的就是帮助我们解决具体问题。

尽管我们人类喜欢抱怨我们的机器不能正确地为我们提供服务的各种方式,从史前战车分解,到展现可怕的“死亡”蓝屏的现代计算机,事实是大多数时候这些机器工作得非常好。

考虑一下您的汽车发生故障的频率。如果你特别不走运,那可能是每三个月一次。或者考虑一下现在重启计算机的频率。每周一次?可能每隔一周?这是他们的功能周期中非常小的百分比。

更重要的是,在工作的机器和不工作的机器之间存在明确的分界线。你的车要么向前移动要么向前移动,如果它是一个或另一个,你就会很清楚。您的计算机是否正在运行 - 再次,那里没有模糊的边界。

这使我们与机器的交互非常简单。我们需要的是某种实用性。我们的汽车应该让我们从A点到B点,他们能够做到或不做。我们的计算机应该可以帮助我们编写,编辑照片或上网,反过来也可以完成任务。作为用户,我们可以立即判断它是否是其中之一。

更重要的是,我们从不会三思而后行,是否存在某种中间状态,一种不确定状态,即事物既有效又无效。当然,我们的汽车发动机可能存在一些我们无视的问题,但我们的汽车会很乐意继续下去,直到这个问题变得严重到足以让它崩溃。或者可能有一些未知的病毒在我们的计算机操作系统中恶化,但在事情开始严重失灵之前我们不会意识到这一点。

我们与机器的交互基于这种基本的二进制操作模式。它们要么"开启"要么"关闭",要么完全不工作,要么100%可靠。

但是在过去的几年里发生了一些变化。我们的机器能够以不同的模式运行,这是一种新的状态,在这种状态下,事物不会"正常"工作。他们现在已经进入了一个不确定的领域,这是迄今为止尚未开发的计算机领域,而且到目前为止,它还是人类的一项独家特权。

不确定性

什么是不确定性?这是一个与世界特定地区有关的概念。当你想到明天的天气时,会有一定的不确定性。或者股票市场因其带来的不确定性而臭名昭着。即使是所谓的简单任务也存在相关的不确定性:这条信息真实存在吗?这真的是我想买的咖啡机吗?我真的生病了,还是只是过敏?

这些问题直到最近才会出现在我们自己或另一个人身上。在大多数情况下,我们不会给出简单的是或否答案。即使我们这样做了,我们也会(或应该)要求一些理由。果然,有时我们可能会解决某种更高级别的权威:例如医生,律师或牧师。但即使他们也不能免于为他们对感兴趣的主题提出自己的意见。

为什么我们拒绝接受不合理的意见?这是因为我们知道每种观点中都存在固有的不确定性概念。这也是因为这些问题的答案将为进一步决策提供一个垫脚石。我们希望有坚实的基础来建立我们的生活,这就是为什么我们需要对别人告诉我们的东西有信心。

信任

信任需要付出巨大的努力,但很容易丢失。

人类摆脱向他人证明自己观点的必要性的唯一途径就是培养出令人难以置信的信任,以至于他们的观点不受审查。这将使他们能够避免为他们的所有答案提供理由,因为他们已经证明了过去正确行事的记录。

信任需要付出巨大的努力,但很容易丢失。这是一个众所周知的人性事实,尤其是因为失去了对被证明将我们误入歧途的人的信任,这是一种非常有用的防御机制,可以对付那些试图利用其权威地位的人。

可解释性

它们是错误的,因为任何实体在不确定性下做出选择的任务,这些选择都有影响人类生活的能力,然后这个实体成为我们社会生态系统的一部分,并因此获得改变我们世界的能力。 - 好的或坏的

这如何与计算机联系起来?如上所述,他们现在正在走向不确定的领域。他们被要求表达意见或做出涉及不确定性的决定。我们要求亚马逊以合适的价格为我们找到合适的产品。我们要求Google向我们提供准确的信息,并向Facebook提供最新消息。我们的算法可以监控我们的健康状况,决定我们重新犯罪的可能性,或查看一堆简历以找到合适的候选人。

我们知道没有确定的方法来满足这些要求,我们肯定不会要求人类做出100%正确的决定。然而,如果我们没有办法仔细检查他们的慷慨和可靠性,我们绝不会相信人类专家为我们做出所有这些决定。

事实上,如果一个人负责所有那些只会按照自己的意愿行事并且从未被要求解释他们的行为,我们会认为这对我们的民主是绝对的冒犯。如果提供任何类型的解释超出其心智能力,那将更加荒谬。我们肯定永远不会允许一个人这样做,对吗?我们会吗?

为什么我们允许机器?听起来很有趣,这是因为直到最近这个想法还没有超出我们的想法。还记得我们是如何习惯于思考我们的机器,因为这些有限的生命总是在两个状态之间运行,"开"和"关"?

还记得我们从未预料到会出现某种不确定性,一个薛定谔的盒子,我们的机器会在同一时间打开和关闭,或者更好的是,它们会进入我们人类认为的不确定性领域。最后的机器智能前沿?

当我们决定使用算法为我们做出这些重要决策的那一刻,我们决定用它们来模拟具有固有元素不确定性的世界部分。

在我们遇到这种道德困境之前,我们认为我们需要创造一台具有人类精神能力的机器,一种真正的通用AI。这就是为什么我们高兴地让我们的算法承担人类专家的角色,因为我们从未想过会产生任何问题。

即使在今天,人们也在谈论机器这些冷酷的计算实体,这些实体在做出决策时是公正的,因此比人类更好。他们永远不会不公平或有偏见,因为他们没有感情或经历偏见。遗憾的是,这种谈话也源于当今数据科学最前沿的人们。

事实是他们错了。

更不用说隐私问题,平衡数据集,公平性或任何其他标语,这些标语目前正在吸引机器学习社区。它们是错误的,因为任何实体在不确定性下做出选择的任务,这些选择都有影响人类生活的能力,然后这个实体成为我们社会生态系统的一部分,并因此获得改变我们世界的能力。 - 好的或坏的。

这就是我们发现自己处于谷歌之后的状态,其他人在我们的社会中获得了如此突出的地位。这个想法并没有让我们想到这些算法可能会在引擎盖下发生故障,故障是他们设计的一部分 - 一个功能,而不是一个bug。在问题开始出现之前我们没有注意到。

任何涉及不确定性的决定,世界上任何不确定的部分,这些决策都不能模仿我们从机器中习惯的可靠性。天气可以准确预测90%。也许99%。也许99.9999999%。没关系。总是会出现错误,而这个错误导致了向不确定性转变的过渡。

你什么时候对吗?你什么时候错的?我什么时候可以信任你?这些是每个理智的人在向他们提出其中一个问题时应该询问他们的机器的问题。如果接收端有人,我们会问这些问题。

但我们没有。我们被我们与机器交互的悠久历史所迷惑,这些机器明确无误地"开启"或"关闭",我们已经放松了警惕。我们被允许自己被机械"Oracles"统治,这些机器旨在如实地回答我们所有的问题。

验收

如果你的医生说他们在医学院的考试中得到95%,你会感到满意吗?不幸的是,他们不能为他们的专业意见提供额外的理由吗?你愿意接受他们的话吗?

我们怎样才能摆脱这种混乱局面?我们怎样才能让公众知道他们现在处理的机器不可靠,永远不可靠?我们如何处理这种认识的后果?我们如何回归并帮助智能机器在我们的世界中恢复其应有的位置,尽管是以更负责任的方式?

我们只有一种方法来处理这种不确定性。作为人类,我们不断地为我们的决定和信仰辩护,而我们论证的力量(或缺乏)决定了别人对我们的看法的认真程度。我们应该将算法保持在相同的高标准。

关于我们目前用于创建智能机器的方式。我们定义一个问题。这个问题可以简单明了:你在这张照片中看到的是猫还是狗?然后我们收集了很多猫狗的照片,我们反复向我们的算法展示它们,让它回答我们的问题,并在它正确回答问题时让它知道。然后我们测试它在以前从未见过的一系列图片上的新发现的知识。我们测量它得到的正确答案的百分比,并愉快地报告我们的算法准确性。然后我们将这个算法部署在一个真实的世界系统中,试图回答不同人类提出的同一个问题。

如果我们只是希望我们的智能手机能够在我们的照片上自动标记我们的狗,这可能是相当无辜的,当它为我们的邻居的猫弄错它时它甚至可能是可爱的,但如果我们谈论更严重的应用程序,事情会变得丑陋。

假设你参加考试后,你会走进医生的办公室,医生告诉你,你患有癌症。你可能会说,"你是怎么得出这个结论的?"

如果你的医生说他们在医学院的考试中得到95%,你会感到满意吗?不幸的是,他们不能为他们的专业意见提供额外的理由吗?你愿意接受他们的话吗?

难道你不高兴医生说:你的检查显示了这个和那个,这就是为什么我认为你得了癌症?即使你不完全明白他们在谈论什么,你难道不相信那个人吗?

作为科学家和实践者,这是我们应该遵守的标准。

继续

我们可以不再认为自己超越了与功能社会每个成员相关的道德标准

它也不在我们手中。无论我们是否愿意,更广泛的公众将很快开始坚持我们的算法到相同的标准。在某些地区,他们已经开始了。

我们可以继续否认这一事实,我们可以坚持认为机器学习算法不需要解释自己,它们在某种程度上超出了这一点(就像牧师曾经一样!),我们应该只关注它们使它们表现得更好。

我们可以,但是当公众超越我们时,我们不应该抱怨。当规则和规定来到我们的路上。我们可以随心所欲地抗议他们,我们可以谈论无法看到进步方式的倒退监管机构。因为我们是科学家,所以我们可以认为自己在精神上更优越。我们可以瞧不起我们应该服务的社会。

或者我们可以承认我们尚未达到目标的事实。我们可以承认公众的恐惧。我们可以专注于我们的算法确实可以改善人类生活的情况,并远离那些弊大于利的人。我们可以不再认为自己超越了与功能社会每个成员相关的道德标准。

这就是当你离开学术界并进入现实世界时会发生的事情。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/你好赵伟/article/detail/258162
推荐阅读
相关标签
  

闽ICP备14008679号