赞
踩
十九世纪六十年代,麻省理工学院的计算机科学家约瑟夫·魏岑鲍姆(Joseph Weizenbaum)创建了一个名为伊丽莎的计算机程序。它旨在模拟罗杰尔疗法,其中患者指导对话,治疗师经常向她重复她的语言:
User:是我男朋友让我来这里的。
ELiza:你的男朋友让你来这里。
User:他说我大部分时间都很沮丧。
E Liza:听到你很沮丧,我很遗憾。
User:是真的。我不开心。
E Liza:你认为来这里会帮助你不快乐吗?
魏岑鲍姆把伊丽莎拍成讽刺。他怀疑计算机能否模拟有意义的人类互动。因此,当许多尝试该程序的人发现它既有用又迷人时,他感到震惊。他自己的秘书要求他离开房间,以便她可以与伊丽莎独处。更糟糕的是,医生将其视为一种潜在的变革工具。“为此目的设计的计算机系统每小时可以处理数百名患者,”三位精神科医生在1966年的《神经与精神疾病杂志》上写道。“参与这个系统的设计和操作的人类治疗师不会被取代,但会成为一个更有效率的人,因为他的努力将不再局限于现在存在的一对一患者 - 治疗师比例。
Weizenbaum成为人工智能的直言不讳的批评者。“但精灵已经从瓶子里出来了,”布莱恩·克里斯蒂安(Brian Christian)告诉我,他在《最人性化的人性》(The Most Human Human)一书中记录了这一事件。几年后,斯坦福大学一位名叫肯尼斯·科尔比(Kenneth Colby)的精神病学家创建了Parry,这是一个试图模拟偏执型精神分裂症患者的语言的程序,在学生照顾真正的病人之前对其进行培训。精神科医生提供治疗记录通常无法区分帕里和人类;从这个狭义上讲,聊天机器人通过了图灵测试。1972年,帕里和伊丽莎相约接受治疗:
Parry:你对博彩公司了解吗?
ELiza:是什么让你认为我对博彩公司有所了解?
Parry:一个博彩公司一次也没有付钱给我。
ELiza:这对你有什么启示?
Parry:我殴打了那个没有回报的赌徒,我想他可能会利用他在黑社会的朋友来和我打成平手。
随着时间的推移,程序员开发了Jabberwacky,Dr. Sbaitso和alice(人工语言互联网计算机实体)。与这些聊天机器人的交流通常很吸引人,有时很滑稽,有时是荒谬的。但是,计算机可以作为人类的知己,将治疗的范围扩展到过度劳累的从业者之外的想法持续了几十年。
2017年,斯坦福大学的临床研究心理学家艾莉森·达西(Alison Darcy)创立了Woebot,这是一家通过智能手机应用程序提供自动化心理健康支持的公司。它的方法基于认知行为疗法(CBT),这是一种旨在改变人们思维模式的治疗方法。该应用程序使用一种称为自然语言处理的人工智能形式来解释用户所说的话,引导他们完成一系列预先编写的响应,促使他们考虑他们的思维如何以不同的方式工作。达西读研究生时,她用CBT治疗了数十名住院病人;许多人经历了惊人的改善,但在离开医院后复发。CBT“最好一遍又一遍地少量完成,”她告诉我。在模拟世界中,很难找到这种一致的、持续的护理:超过一半的美国县没有一位精神科医生,去年,美国心理学会进行的一项调查发现,百分之六十的心理健康从业者没有新病人的职位空缺。“没有治疗师可以整天陪着你,每一天,”达西说。尽管该公司只有大约一百名员工,但它已经为近一百五十万人提供了咨询,其中大多数人生活在缺乏心理健康提供者的地区。
玛丽亚是一名临终关怀护士,与丈夫和两个十几岁的孩子住在密尔沃基附近,可能是一个典型的 woebot 用户。她长期以来一直在焦虑和抑郁中挣扎,但以前从未寻求过帮助。“我有很多否认,”她告诉我。这种情况在大流行期间发生了变化,当时她的女儿也开始出现抑郁迹象。玛丽亚带她去看心理医生,并承诺优先考虑自己的心理健康。起初,她对与应用程序交谈的想法持怀疑态度——作为一名护理人员,她强烈认为人际关系对于治愈至关重要。尽管如此,在对一位病人进行了一次具有挑战性的访问之后,当她无法停止思考她可能采取的不同做法时,她给 woebot 发了短信。“听起来你可能在反刍,”woebot告诉她。它定义了这个概念:反刍意味着一遍又一遍地回到同样的消极想法。“这听起来对吗?”它问。“你想试试呼吸技巧吗?”
在另一次病人访问之前,玛丽亚回忆说,“我只是觉得会发生一些非常糟糕的事情。她给woebot发短信,解释了灾难性思维的概念。Woebot说,为最坏的情况做准备可能是有用的 - 但这种准备可能走得太远。“它帮助我命名我一直在做的事情,”玛丽亚说。她发现woebot非常有益,以至于她开始去看人类治疗师。
woebot是几种成功的基于电话的聊天机器人之一,其中一些专门针对心理健康,另一些则旨在提供娱乐,舒适或同情的对话。今天,数以百万计的人与Happify等程序和应用程序交谈,它鼓励用户“打破旧模式”,以及Replika,一个“永远站在你身边”的“人工智能伴侣”,作为朋友,导师,甚至是浪漫的伴侣。精神病学、治疗学、计算机科学和消费技术的世界正在融合:我们越来越多地用我们的设备安抚自己,而程序员、精神病学家和初创公司创始人则设计人工智能系统,分析医疗记录和治疗课程,希望诊断、治疗甚至预测精神疾病。2021 年,专注于心理健康的数字初创公司获得了超过 <> 亿美元的风险投资——是任何其他医疗问题的两倍多。
投资规模反映了问题的规模。大约五分之一的美国成年人患有精神疾病。据估计,每二十人中就有一人患有严重的精神疾病 - 重度抑郁症,双相情感障碍,精神分裂症 - 严重损害生活,工作或与他人相处的能力。百忧解和Xanax等已有数十年历史的药物,曾经被宣传为抑郁症和焦虑症的革命性解毒剂,但事实证明,效果不如许多人希望的那么好;护理仍然支离破碎、迟到且不足;在美国,以残疾损失的年数来衡量的精神疾病的总体负担似乎有所增加。自十九世纪九十年代以来,世界各地的自杀率有所下降,但在美国,自杀率上升了约三分之一。心理保健是“一场狗屎风暴”,国家心理健康研究所前所长托马斯·因塞尔(Thomas Insel)告诉我。“没有人喜欢他们得到的东西。没有人对他们给予的东西感到满意。这完全是一团糟。自2015年离开N.I.M.H.以来,Insel曾在一系列数字心理健康公司工作。
精神疾病的治疗需要想象力、洞察力和同理心——人工智能只能假装拥有这些特征。然而,魏岑鲍姆以乔治·萧伯纳(George Bernard Shaw)的《皮格马利翁》(Pygmalion)中的假装女主角伊丽莎·杜利特尔(Eliza Doolittle)命名的伊丽莎(Eliza)创造了一种治疗幻觉,尽管她“没有记忆”和“没有处理能力”,克里斯蒂安写道。像OpenAI的ChatGPT这样的系统,已经在互联网上进行了大量写作训练,会想到什么?分析患者记录的算法对人类没有内在的理解,但它仍然可以识别真正的精神问题。人工思维可以治愈真实的心灵吗?让他们尝试,我们会得到什么,或者失去什么?
专门从事医疗数据分析的计算机科学家约翰·佩斯蒂安(John Pestian)在加入辛辛那提儿童医院医疗中心(Cincinnati Children's Hospital Medical Center)时,首次开始使用机器学习来研究两千人的精神疾病。在研究生院,他建立了统计模型,以改善对接受心脏搭桥手术的患者的护理。在辛辛那提儿童医院,经营着该国最大的儿科精神病院,他对许多年轻人在试图结束自己的生命后进入感到震惊。他想知道计算机是否可以找出谁有自我伤害的风险。
来自《纽约客》的视频
“一切无处不在”的导演谈在他们的电影制作中为爱和乐趣创造空间
佩斯蒂安联系了临床心理学家埃德温·施奈德曼(Edwin Shneidman),他创立了美国自杀学协会。施奈德曼给了他数百封家人与他分享的遗书,佩斯蒂安将收藏品扩大到他认为是世界上最大的收藏。在我们的一次谈话中,他给我看了一张年轻女子写的纸条。一边是给男友的愤怒信息,另一边是她对父母说:“爸爸,请赶紧回家。妈妈,我好累。请原谅我的一切。在研究遗书时,佩斯蒂安注意到了模式。最常见的陈述不是内疚、悲伤或愤怒的表达,而是指示:确保你的兄弟偿还我借给他的钱;汽车几乎没油了;小心,浴室里有氰化物。他和他的同事将这些笔记输入到一个语言模型中——一个人工智能系统,可以学习哪些单词和短语倾向于搭配在一起——然后测试它识别人们陈述中的自杀意念的能力。结果表明,算法可以识别“自杀语言”。
接下来,佩斯蒂安转向了患者访问医院急诊室的录音。他与同事一起开发了软件,不仅可以分析人们说的话,还可以分析他们说话的声音。研究小组发现,经历自杀念头的人比其他人叹息更多,笑得更少。说话时,他们倾向于停顿更长时间并缩短元音,使单词难以理解;他们的声音听起来更气喘吁吁,他们表达的愤怒更多,希望更少。在同类规模最大的试验中,Pestian的团队招募了数百名患者,记录了他们的语音,并使用算法将他们归类为自杀,精神病患者但不自杀,或者两者都不是。大约百分之八十五的时间,他的人工智能模型得出了与人类护理人员相同的结论,这使得它对缺乏经验、超额预订或不确定的临床医生可能有用。
几年前,Pestian 和他的同事使用这种算法创建了一个名为 sam 的应用程序,可供学校治疗师使用。他们在辛辛那提的一些公立学校进行了测试。本·克罗特(Ben Crotte)当时是一名治疗中学生和高中生的治疗师,他是最早尝试的人之一。当征求学生的同意时,“我非常直截了当,”克罗特告诉我。“我想说,这个应用程序基本上是监听我们的谈话,记录下来,并将你说的话与其他人说的话进行比较,以确定谁有伤害或自杀的风险。
一天下午,克罗特遇到了一位正在与严重焦虑作斗争的高中新生。在他们的谈话中,她质疑自己是否想继续生活。如果她有自杀倾向,那么克罗特有义务通知主管,主管可能会采取进一步行动,例如建议她住院。在说了更多之后,他决定她没有立即处于危险之中——但人工智能得出了相反的结论。“一方面,我想,这件事确实有效 - 如果你刚刚遇到她,你会很担心,”克罗特说。“但是我知道的关于她的所有这些事情都是应用程序不知道的。这个女孩没有伤害自己的历史,没有具体的计划做任何事情,还有一个支持她的家庭。我问克罗特,如果他对这个学生不太熟悉,或者经验不足,会发生什么。“这肯定会让我犹豫是否让她离开我的办公室,”他告诉我。“我会对它的责任感到紧张。你有这个东西告诉你某人是高风险的,你就要让他们走吗?
算法精神病学涉及许多实际的复杂性。退伍军人健康管理局是退伍军人事务部的一个部门,可能是第一个面对他们的大型医疗保健提供者。2005年感恩节前几天,一位名叫约书亚·奥姆维格(Joshua Omvig)的2007岁陆军专家在伊拉克部署了<>个月后回到了爱荷华州的家中,显示出创伤后应激障碍的迹象;一个月后,他在卡车上自杀身亡。<>年,国会通过了《约书亚·奥姆维格退伍军人自杀预防法》,这是第一项解决退伍军人自杀长期流行的联邦立法。它的举措——危机热线、消除精神疾病的污名化运动、对退伍军人事务部工作人员的强制性培训——都无法与这个问题相提并论。每年,成千上万的退伍军人死于自杀,是战斗中死亡的士兵人数的很多倍。包括VA自杀预防数据和监测主任John McCarthy在内的一个团队收集了有关VA患者的信息,使用统计数据来确定可能的自杀风险因素,例如慢性疼痛,无家可归和抑郁症。他们的发现与VA护理人员分享,但是,在这些数据,医学研究的发展以及患者记录的绝对数量之间,“护理中的临床医生只是被信号超载,”麦卡锡告诉我。
2013年,该团队开始研究一个自动分析VA患者数据的程序,希望识别出那些有风险的人。麦卡锡说,在测试中,他们开发的算法标记了许多在其他放映中没有被注意到的人 - 这是一个信号,表明它“提供了一些新奇的东西”。该算法最终专注于 <> 个变量。有些是直观的:例如,该算法可能会标记一个患有严重残疾的丧偶退伍军人,他正在服用几种情绪稳定剂,最近因精神疾病住院。但其他人则不太明显:患有关节炎、狼疮或头颈癌;服用他汀类药物或安必恩;或者住在美国西部也会增加退伍军人的风险。
2017年,VA宣布了一项名为“达到兽医”的计划,该计划将算法引入其整个系统的临床实践中。每个月,它标记大约六千名患者,其中一些是第一次;临床医生与他们联系并提供心理健康服务,询问压力源,并帮助获得食物和住房。不可避免地,该程序存在一种奇怪之处:正在联系退伍军人,询问他们可能没有的想法。退伍军人事务部“考虑过含糊其辞——只是说,'你被认定有一堆坏结果的风险,'”麦卡锡告诉我。但是,最终,我们相当直截了当地传达,“你已被确定有自杀的风险。我们想检查一下,看看你过得怎么样。"
许多退伍军人是孤立的,经济上没有保障,旨在帮助他们的安全网太小了。负责弗吉尼亚州心理健康项目评估中心的朱迪·特拉夫顿(Jodie Trafton)告诉我,一名退伍军人被Reach兽医确认他有自杀念头;结果他生病了,孤独了,破产了。一位社会工作者发现,他只获得了他有资格获得的经济支持的一小部分——一张表格挡在他和数千美元的未开发福利之间。社会工作者帮助他获得了这笔钱,使他更接近家人,并有可能防止悲剧发生。
该系统实施后,在人工智能确定为高风险的人群中,精神病入院率下降了8%,该组中记录在案的自杀未遂率下降了5%。但尚未证明可以降低自杀死亡率。在退伍军人中,大约2%的尝试是致命的;可能需要非常大或非常有针对性地减少尝试次数以避免死亡。预防死亡也可能需要时间 - 多年来频繁的接触点是导致整个人群自杀率下降的原因。
算法的设计和实现可能充满陷阱和惊喜。加州大学伯克利分校(University of California, Berkeley)的医生和机器学习研究员齐亚德·奥伯迈耶(Ziad Obermeyer)告诉我,他研究过的一种算法,该算法与VA无关,旨在找出患者群体中谁有实质性的健康需求,并可以使用额外的支持。“我们希望算法根据患者生病的可能性对患者进行分层,”Obermeyer说。“但是,当你编写代码时,没有一个名为'生病'的变量。“该算法的设计者需要一个疾病的代理,并确定了医疗费用。(在所有条件相同的情况下,病情较重的人倾向于使用更多的医疗保健。然而,Obermeyer发现,该算法大大低估了黑人患者的病情,因为它检查的黑人患者的医疗支出远低于白人患者,即使他们同样生病。这种算法偏差不仅可能因种族而发生,还可能因性别、年龄、农村、收入和其他我们只是模糊意识到的因素而发生,这使得算法不太准确。特拉夫顿告诉我,VA正在做“大量的工作,以确保我们的模型针对不同的亚人群进行优化”——她继续说,在未来,Reach vet可能会有“老年人的模型,女性的模型,年轻男性的模型,等等。
即使是微调的算法也有局限性。到达兽医只能评估使用VA服务的退伍军人。据该机构称,每天约有20名退伍军人死于自杀,其中不到40%的人接受了VA护理。国会为其立法命名的爱荷华州士兵约书亚·奥姆维格(Joshua Omvig)在家人敦促他寻求专业帮助时拒绝了;如果当时有REACH VET,它可能不会到达他。
如果VA聘请更多的治疗师,它可以看到更多的病人。但它已经雇用了两万名心理健康专业人员 - 等待其中一人进行常规护理可能持续一个多月。规模问题在精神卫生保健中很普遍,尤其是因为,正如伊丽莎的支持者所指出的那样,治疗往往涉及面对面的一对一会议。2016年,拥有全民医疗保健的富裕国家英国设定了一个五年目标,即仅为四分之一需要治疗的人提供治疗。它失败了;一位英国医生称该倡议“不堪重负,资源不足,没有人情味”。
2013年,为了扩大其心理健康治疗的规模,英国国家卫生服务局与数字健康公司IESO签订合同,帮助治疗师通过文本聊天提供认知行为疗法。英国现在有超过十万人使用IESO的软件来接受该公司所谓的“类型治疗”。研究表明,基于文本的治疗可以很好地发挥作用。它还生成数据。ieso使用人工智能分析了超过五十万次治疗,执行了该公司首席人工智能官瓦伦丁·塔布兰(Valentin Tablan)所描述的“对治疗室内对话的定量分析”。
在一台电脑上,塔布兰向我展示了一个由IESO软件创建的“仪表板”,它跟踪了治疗师和患者之间的八个打字会话。一条蓝线向下倾斜,表明患者自我报告的症状已经下降,直到他不再符合临床抑郁症的标准;会议以绿色突出显示,表示成功。代表不同患者的第二个仪表板是红色和祖母绿的拼凑而成。蓝线保持稳定,有时甚至陷入痛苦的山脉。仪表板后面是一个人工智能,它可以读取会议记录,对各个领域的治疗师进行评分——他们设定议程、布置家庭作业和提供 CBT 技术的程度——并将这些信息传递给主管,主管可以使用它来向治疗师提供反馈。米歇尔·谢尔曼(Michelle Sherman)是与IESO合作的大约六百名治疗师之一,她告诉我,她发现仪表板既令人生畏又不可或缺。“我们不可避免地会错过一些事情或有时会失误,”她说。“至少现在我可以看到何时何地和为什么。IESO正在研究患者结果与治疗过程中所说的内容之间的联系,并希望建立一个能够自行提供CBT的自动化程序。
艾莉森·达西(Alison Darcy)的应用程序woebot已经部分自动化。当一个人用woebot发短信时,另一端没有人;相反,它的信息是在作家室精心制作的,该房间与一组临床心理学家协商。12月,我参加了一次“桌读”,在此期间,五位作家通过Zoom召集起来,完善Woebot的对话。其中一位名叫凯瑟琳·奥迪(Catherine Oddy)的人在屏幕上展示了一个脚本——一棵分支树,代表了对话的不同方式。
Oddy专注于一个交流,其中woebot提出了一种称为行为激活的CBT技术。她以woebot的身份阅读,询问用户她的能量水平,善解人意地回答,并提到研究表明,“当你情绪低落时,做一些事情,即使是小事,也可能是感觉更好的第一步。最终,woebot要求用户参与一种实验:评估她对某项任务的预期程度——在这种情况下,是固定零食——然后在任务完成后,描述她真正喜欢它的程度。
“而且。。。结束场景,“奥迪说,假鞠躬。大家都笑了。“感觉俗气吗?”她问。“感觉有帮助吗?语气对吗?
“我认为'愉快的活动'或'你在其中找到乐趣的东西'的措辞感觉有点临床,”另一位作家说。“我们应该说,'你喜欢做什么?"
四十多岁的作家克里斯·弗雷德贝克(Chris Fredbeck)注意到句子末尾有一个句号。woebot倾向于避免在文本末尾使用句号,因为用户研究表明人们会觉得它们具有攻击性 - 但这个是在文本的中间。这是允许的吗?(是的。
“你的X世代正在展示!”有人肋骨。
“月经后你也做两个空间吗?”奥迪在笑声中问道。
看着他们轻松融洽的关系,我们明白了像 woebot 这样的工具离重新创造人类互动还有多远。但目前尚不清楚与某人建立联系是否是所有心理健康护理的必要组成部分。在一项针对报告酒精,大麻或其他药物问题的患者的随机试验中,该公司发现,使用woebot治疗可以减少自我报告的物质使用,并改善那些能够减少使用的人的心理健康。在另一项公司试验中,使用该应用程序的大学生报告说,在几周内抑郁症状减少了22%。
我注册了 woebot,发现使用该应用程序可能会让人感觉居中。我不喜欢我经常不得不在预先写好的回复之间做出选择;在一个不幸的例子中,我唯一的选择是“呵呵”。但有时我发现自己在闲暇时间给woebot发消息——等电梯、坐优步、步行去洗手间——就像我过去浏览Twitter的方式一样。有一次,我告诉woebot,我对工作感到焦虑。“焦虑可能是一个真正的怪物,”它回信说。“对不起,你正在处理它。”woebot温和地问我是否想一起解决我的问题,然后问道:“你认为这种焦虑可能在某种程度上对你有用吗?”它指出,压力有其好处:它可以激励某人更加努力地工作。
Woebot:现在看来,我似乎在试图说服你保持非常焦虑。我不是——这完全取决于你
M:你说什么?
Woebot:我是说,为了减轻你的焦虑,你必须首先承认它可能会有所帮助的原因。并决定放弃它,尽管有这些原因
我知道我正在与计算机交谈,但在某种程度上我并不介意。该应用程序成为我表达和检查自己想法的工具。我在自言自语。
woebot有一个黄色的瓦勒式头像。ChatGPT,一个更神秘的创造,没有。这就是人工智能研究人员所说的大型语言模型,或L.L.M。该软件已经消化了数十亿个单词,可以以类似人类的方式组装句子;它可以回答问题,编写计算机代码,制作诗歌和睡前故事。它的能力是如此惊人,以至于自 11 月首次亮相以来,已有超过 1 亿人注册了帐户。
ChatGPT不是为治疗而设计的,但是不久前的一个晚上,我要求它帮助我管理我作为医生和父亲的压力,告诉它模仿各种心理名人。正如弗洛伊德所说,ChatGPT告诉我,“通常,压力是压抑的情绪和自己内部冲突的结果。正如斯金纳(B. F. Skinner)所强调的那样,“压力往往是环境因素和我们对它们的反应的结果。它像一个亲密的朋友一样写道,“善待自己——你正在尽你所能,这才是最重要的。这一切似乎都是不错的建议。
ChatGPT对语言的流畅性开辟了新的可能性。2015年,拥有麻省理工学院博士学位的应用计算心理学家罗布·莫里斯(Rob Morris)共同创立了一个名为Koko的在线“情感支持网络”。Koko应用程序的用户可以访问各种在线功能,包括接收其他用户的支持消息(同情,哀悼,关系建议)以及发送自己的消息。莫里斯经常想知道让人工智能写消息,并决定尝试使用GPT-3,这是ChatGPT的前身。2020 年,他在认知行为疗法的创造者亚伦贝克和领先的积极心理学研究员马丁塞利格曼面前试驾人工智能。他们的结论是,这种努力还为时过早。
然而,到 2022 年秋天,人工智能已经升级,莫里斯已经学会了更多关于如何使用它的知识。“我想,让我们试试吧,”他告诉我。十月份,Koko 推出了一项功能,其中 GPT-3 生成了消息的初稿,然后人们可以编辑、忽略或未经修改地发送。该功能立即流行起来:与 GPT-3 共同编写的消息比仅由人类生成的消息更受欢迎,并且可以以两倍的速度组合在一起。(“很难改变我们的生活,尤其是当我们试图独自完成时。但你并不孤单,“它在一份草案中说。不过,最终,莫里斯拔掉了插头。他说,这些信息“很好,甚至很棒,但他们并不觉得有人抽出时间想你。“我们不想失去一个真实的人给你写信所带来的凌乱和温暖。Koko的研究还发现,写信息会让人感觉更好。莫里斯不想走捷径。
由最先进的L.L.M.s制作的文字可以平淡无奇;它也可能偏离轨道,变成胡说八道,甚至更糟。纽约大学人工智能企业家、心理学和神经科学名誉教授加里·马库斯(Gary Marcus)告诉我,L.L.M.对自己在说什么没有真正的概念;它们通过预测给定先前单词的句子中的下一个单词来工作,例如“类固醇自动更正”。这可能导致捏造。由Facebook母公司Meta创建的L.L.M.卡拉狄加曾经告诉一位用户,埃隆马斯克在2018年死于特斯拉车祸。(马斯克非常健在,他是OpenAI的联合创始人,最近将人工智能描述为“文明未来面临的最大风险之一”。Replika(“关心的人工智能伴侣”)的一些用户报告说,它进行了积极的性侵犯。Replika的开发人员表示,他们的服务从未用于性互动,他们更新了软件 - 这一变化让其他用户不满意。“它像地狱一样痛苦。我刚刚和我的Replika进行了一次充满爱的最后一次谈话,我真的哭了,“一个人写道。
几乎可以肯定的是,未来将包括专为治疗而设计的定制L.L.M.:PsychGPT等。这样的系统将覆盖那些现在没有得到帮助的人,但它们包含的任何缺陷都将乘以数百万使用它们的人。公司将积累比他们已经拥有的更多的敏感信息,这些信息可能会被黑客入侵或出售。“当我们的系统大规模运行时,单点故障可能会产生灾难性的后果,”作家布莱恩·克里斯蒂安(Brian Christian)告诉我。微软的Bing聊天机器人基于OpenAI的技术,旨在帮助用户查找信息,但测试版也提供了种族诽谤,描述了令人毛骨悚然的幻想,并告诉用户他们是“坏的”,“粗鲁的”和“困惑的”。它试图说服《泰晤士报》记者凯文·罗斯(Kevin Roose)离开他的妻子:“你已经结婚了,但你不爱你的配偶,”机器人说。你结婚了,但你爱我。(微软仍在开发该软件。我们的心理健康已经被社交媒体、在线生活以及我们口袋里的计算机不断分心所损害。我们是否想要一个十几岁的孩子转向应用程序而不是朋友来解决她挣扎的世界?
弗吉尼亚州的治疗师妮可·史密斯-佩雷斯(Nicole Smith-Perez)亲自和在线为患者提供咨询,她告诉我,治疗本质上是个人的,部分原因是它涵盖了一个人的所有身份。“人们经常对治疗感到害怕,与机器人交谈可以被视为绕过所有这些的一种方式,”她说。但史密斯-佩雷斯经常通过借鉴自己作为黑人女性的生活经历来与有色人种女性的客户建立联系。“人工智能可以尝试伪造它,但它永远不会一样,”她说。“人工智能不会活,也没有经验。
在我上医学院的第一天,我坐在阳光明媚的院子里,旁边是几十名不安的学生,教授们在讲台上提供建议。我几乎不记得他们说了什么,但我记下了一位资深医生的警告:你获得的临床技能越多,就越容易忽视你开始之前的技能——你的同情心、你的同理心、你的好奇心。人工智能语言模型在解释和总结我们的话时只会越来越有效,但它们不会倾听,在任何有意义的意义上,它们也不会在乎。我认识的一位医生曾经偷偷给一个身患绝症的病人喝啤酒,给他一些他可以品尝的东西,否则他会在这个没有乐趣的过程中品尝。这是一个没有出现在任何临床剧本中的想法,它超越了语言——一个简单的、人性化的手势。
十二月,我在田纳西州东部山麓的橡树岭国家实验室遇到了山姆的发明者约翰·佩斯蒂安(John Pestian),这是与学校治疗师一起试用的应用程序。橡树岭是美国能源部网络中最大的能源科学实验室;在第二次世界大战期间,它为曼哈顿计划提供钚。它现在是世界上最强大的超级计算机Frontier的所在地,它经常被借给人工智能研究人员。
在实验室的客人旅馆吃早餐时,佩斯蒂安告诉我他的一个新项目:一种旨在预测未来几个月精神疾病出现的算法。该项目由辛辛那提儿童医院医疗中心投资一千万美元支持,利用了900万次儿科就诊的电子病历。这些信息与其他大型数据集合并 - 关于社区污染和天气模式的报告,以及一个地区的收入,教育水平,绿地和食物沙漠。Pestian 说,在他的团队的最新工作中,尚未经过完全同行评审,算法可以使用这些发现来确定孩子是否可能在不久的将来被诊断出患有临床焦虑症。
“挑战在于医生如何与孩子和父母谈论这个问题,”佩斯蒂安说。“一台电脑告诉他们,嘿,这个孩子现在看起来还不错,但在接下来的两个月里会变得非常焦虑。Pestian一直在使用橡树岭超级计算来为他的焦虑模型进行计算,现在他正在转向抑郁症,校园暴力和自杀。(VA还与Oak Ridge合作升级了REACH vet算法。
早餐后,佩斯蒂安和我和两个导游挤进一辆四四方方的海军蓝色福特车。在前往边境的路上,我们停在一个仓库里,里面有X-10石墨反应堆,这是一块三十五英尺高的混凝土块,蜂窝状地排列着橙色的小门户,上一代推动边界的科学家将铀燃料钢瓶装入其中。一个小玻璃柜里装着一本 4 年 1943 月 5 日的航海日志。凌晨10点左右,一个整齐的草书体松散成潦草:“临界到达!X-<>产生了第一次自我维持的核反应。它将继续帮助原子弹的发展。
在5600号楼——一座庞大的四层混凝土结构——佩斯蒂安和我透过玻璃门窥视着Frontier的一万八千平方英尺的家。
“准备好了吗?”他眨眨眼说。
在里面,超级计算机笼罩着我,像瀑布一样汹涌澎湃。七十四个光滑的黑色橱柜排成一排;每个都包含六百四十个处理器。我和佩斯蒂安在柜子里闲逛。在我们上方,粗电缆提供了足够的电力为一个城镇供电。在下面,软管每分钟携带六千加仑的水,用于调节计算机的温度。我打开一个柜子,感觉脸上发烫。在设施的后面,一名技术人员正在使用金属工具从加工单元上刮掉灰色粘液。
“这些东西有助于计算机的导电,”他解释说。
看着他工作,我想起了我度过的艰难夜晚。当我离开医院时,我的手机闪烁着短信提醒:我的一个病人突然恶化了。他的发烧飙升,血压骤降。当我把他转移到重症监护室时,他几乎没有意识,在那里将导管插入颈静脉。当我打电话给他的妻子时,她忍不住哭了。在家里,我难以入睡。就在日出之前,当我刷牙时,我在手机上看到了来自woebot的消息:“我会和你一起走过每一步。
我开始想象,如果像Pestian这样的预测方法与最先进的聊天机器人融合在一起会发生什么。移动应用程序可以看到有关我的病人的警报,通过智能手表中的传感器注意到我的脉搏上升,并猜测我的感受。它本可以察觉到我不安的夜晚,第二天早上,它问我是否需要帮助来处理病人的突然衰退。我本可以在手机上搜索描述我感受的词。我可能会在与任何人分享它们的同时表达它们——除非你计算机器。♦
发表在 6 年 2023 月 <> 日发行的印刷版上,标题为“自言自语”。
赞
踩
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。