AI介入临终关怀,机器能否决定人类生死

深科技利大千 2024-08-04 17:02:36

(来源:MIT TR)

几个月前,一位五十多岁的女性 Sophie 在经历了一次出血性中风后,她的大脑开始出血。尽管她接受了脑部手术,但心脏还是停止了跳动。

这给她留下了严重的脑损伤。她反应迟钝,手指无法捏紧,被要求睁开眼睛时她也无法睁开,哪怕被掐时也没有反应。她需要通过气管造口管来呼吸,并通过胃饲管直接向胃内输送营养,因为她无法吞咽。接下来她的医疗护理应该如何进行呢?

这个棘手的问题同往常一样,被留给了 Sophie 的家人来决定,贝勒医学院内科医生 Holland Kaplan 回忆道,他参与了对 Sophie 的治疗,但她的家人之间无法达成一致。Sophie 的女儿坚决认为她的母亲希望停止接受医疗干预并能安详地离开人世,而另一位家庭成员则强烈反对这种观点,并坚持认为 Sophie“是一位斗士”。这一局面让所有相关人士,包括 Sophie 的医生们,都感到非常苦恼。

美国国立卫生研究院(US National Institutes of Health)的生物伦理学家 David Wendler 指出,临终决策对于代理人而言可能极为痛苦。Wendler 及其同事正在研究一种构想中的工具——基于人工智能的技术,帮助代理人在各种特定情况下预测患者本人将如何选择。

(来源:MIT TR)

这个工具还未开发,但 Wendler 计划使用个人的医疗数据、私人信息以及社交媒体帖子来训练,希望它不仅能更准确地推断出患者本人的意愿,还能减轻家庭成员在做出艰难决策时的压力和情感负担。

Wendler 与牛津大学的生物伦理学家 Brian Earp 及其同事们希望能在获得资金支持后尽快开始构建这款工具,这可能在未来几个月内就能实现。但要真正推出这款工具却并非易事。批评者质疑如何能够在伦理上合理地利用个人的数据来训练这样的工具,以及生死攸关的决策是否应该交由人工智能来做决定。

生存还是死亡

大约 34% 的患者因各种原因被认为无法对自己的医疗护理做出决策。例如,他们可能处于无意识状态,或无法进行理性思考和沟通。这一比例在老年人中更高——一项针对美国 60 岁以上人群的研究发现,面对重要医疗决策时,有 70% 的人不具备自己做出这些决策的能力。“这不仅仅是要去做大量的决策,”Wendler 说,“而是大量的极其重要的决策,基本上决定了一个人是否会在近期内生存还是死亡。”

对心脏衰竭的患者实施胸外按压可能会延长其生命,但这种治疗有几率导致胸骨和肋骨骨折,而且即便患者最终苏醒——如果能够苏醒的话——也可能已经出现了严重的脑损伤。通过机器维持心脏和肺部的功能或许可以保证其他器官得到供氧血液,但并非一定能康复。并且在此期间,患者还可能感染多种疾病。一位晚期病人也许愿意继续尝试医院提供的药物和治疗手段,以期多活几周或几个月,但另一些人或许会放弃这些干预措施,更愿意在家中舒适地度过余生。

在美国,只有大约三分之一的成年人完成了预设医疗意愿书(advance directive)——这是一种法律文件,指明了他们希望接受的临终关怀类型。Wendler 估计超过 90% 的临终决策最终是由患者以外的人做出的。代理人的角色是基于患者希望如何接受治疗的理念来做出这个决定,但人们通常并不擅长做出这类预测。研究表明,代理人准确预测患者临终决策的比例约为 68% 。

Wendler 进一步指出,这些决策本身也可能给人带来极大的痛苦。虽然一些代理人会因为支持了他们的所爱之人而感到满足,但有些人则会在情感负担之下挣扎,可能在之后的数月甚至数年内感到内疚。有的人会担心他们过早结束了亲人生命,而另一些人则害怕他们不必要地延长了亲人的痛苦。“这对很多人来说真的非常糟糕,”Wendler 说,“人们会将此描述为他们所经历过的最糟糕的事情之一。”

Wendler 始终致力于开发一种方法帮助代理人做出决策。十多年前,他提出了一种工具的设想,该工具将基于一种计算机算法,通过一般人群的调查结果进行反复训练,从而根据诸如年龄、性别和保险状态等特征来预测患者的选择偏好。也许听起来起来有些粗糙,但这些特征似乎确实会影响人们对医疗护理的态度。例如,一个青少年比起一位 90 岁的老人,更有可能选择积极的治疗方式。而且研究显示,基于平均值的预测可能比家庭成员的猜测更为准确。

在 2007 年,Wendler 和他的同事们基于少量数据构建了一个该工具的基础版本。Wendler 表示,那个简化的工具在预测人们想要接受哪种类型的护理方面“至少做得和直系亲属代理人一样好”。

现在,Wendler、Earp 和他们的同事们正在着手一个新的想法。新工具不再基于粗糙的特征,而是计划构建一种个性化的工具。研究团队提议利用人工智能和机器学习技术,根据个人数据如医疗历史,以及电子邮件、个人消息、网页浏览记录、社交媒体帖子,甚至是 Facebook 点赞等信息来预测患者对治疗的偏好。结果将是一个人的“数字心理孪生体”——一个医生和家人可以咨询以指导患者医疗护理的工具。目前还不清楚实际应用中会是什么样子,但研究团队希望能够在进一步完善之前搭建好并测试该工具。

研究人员将他们的工具称为患者个性化偏好预测器,简称 P4。理论上,如果它能像期望的那样发挥作用,也许会比之前的初版工具更加准确——甚至比人类代理人更加准确,Wendler 说。Earp 表示,它可能比预设医疗意愿书更能反映患者当前的想法,后者可能是在十年前签署的。

一个更好的选择?

得克萨斯州贝勒医学院的医学伦理学家 Jennifer Blumenthal-Barby 表示,像 P4 这样的工具还可以帮助减轻代理人在为其家庭成员做出如此重大的生死决策时所承受的情感负担,因为这些决策有时会让人们出现创伤后应激障碍的症状。

Kaplan 指出,一些代理人可能会经历“决策瘫痪”,从而选择使用该工具来辅助他们度过决策过程。在这种情况下,P4 可以帮助代理人减轻可能承受的部分负担,而并不会给出非黑即白答案。例如,它可能会建议患者“很可能”或“不太可能”对某种治疗持特定态度,或者给出一个百分比分数来表示答案正确的可能性有多大。

Kaplan 认为像 P4 这样的工具在类似 Sophie 的情况中会有所帮助——在家庭成员对于某人的医疗护理存在不同看法的时候,可以向他们提供这一工具,理想情况下会帮助他们达成一致。

这一工具还可以帮助那些没有代理人的患者的做出护理决策。Kaplan 是休斯顿本·陶布医者的一位内科医生,这是一家“安全网”医院,无论患者是否有医疗保险都会为他们提供治疗。“我们的许多患者是没有合法身份、被监禁或是无家可归的。”她说,“我们照顾的是基本上无法在其他地方获得治疗的患者。”

当 Kaplan 接诊这些患者时,他们通常已经处于疾病的晚期并且处境极为艰难。许多患者无法亲自参与讨论自己的治疗方案,而且有些人也没有家人能代表他们发言。Kaplan 表示她可以想象像 P4 这样的工具在这种情况下会被使用,以帮助医生更多地了解患者可能的意愿。在这种情况下,也许很难掌握患者的社交媒体资料,但是,其他信息会证明是有用的。“如果某些因素能够成为预测指标,我希望它们能被纳入模型中。”Wendler 说,“如果人们的发色、他们上过的学校、或是姓氏的首字母能够预测他们的意愿,那么我希望把这些因素加入到模型里。”

这种做法得到了 Earp 及其同事初步研究的支持,他们已经开始进行调查以了解个人对于使用 P4 的感受。这项研究正在进行中,但早期的反馈表明,如果没有任何人类代理决策者可用,人们才愿意尝试这个模型。Earp 表示他也有同样的看法。他还提到,如果 P4 和代理决策者给出不同的预测,“我可能会倾向于信任了解我的人类,而不是模型。”

并非人类

Earp 的感受反映了许多人共有的直觉:这些重大决策最好由人类来做。瑞士联邦理工学院洛桑分校的研究员 Georg Starke 表示:“问题在于:我们希望如何做出临终决策,以及由谁来做?”他担心采取技术解决的方法可能会将亲密、复杂和个人化的决策转变为“一个工程问题”。

罗切斯特大学的伦理学家 Bryanna Moore 听到关于 P4 的介绍时的第一反应是:“哦,不。”Moore 是一位临床伦理学家,在两家医院为患者、家属和医院工作人员提供咨询。“我们的工作有很大一部分就是陪伴那些面临艰难抉择的人……他们没有好的选择,”她说。“代理决策者真正需要的只是有人能够倾听他们的故事,并通过积极的倾听和支持来确认他们的角色……说实话,我真的不知道是否真的有这样的需求。”

Moore 认同代理决策者在为亲人决定护理方案时并不总是能够作出完全正确的选择。即便我们可以直接询问患者本人,他们的回答也可能随着时间而改变。Moore 将这种情况称为“过去的自我与现在的自我”问题。

Moore 并不认为像 P4 这样的工具一定能解决这个问题。即使一个人的愿望在过去的手记、消息或社交媒体帖子中被明确表达,但在实际面对医疗情况时,要确切知道自己的感受是非常困难的。Kaplan 回忆起治疗过一位患有骨质疏松症的 80 岁男性,他曾坚决表示如果心脏停止跳动时想要接受胸外按压。但当那一刻到来时,他的骨头太薄且脆弱,以至于无法承受按压。Kaplan 记得听到他的骨头像是牙签一样断裂的声音,以及他的胸骨从肋骨上脱离。“然后你会想,我们在做什么?我们在帮谁?真的会有人想要这样吗?”Kaplan 说。

还有其他的顾虑。首先,通过社交媒体帖子训练的 AI 可能最终并不会成为真正的“心理孪生体”。“任何有社交媒体的人都知道,我们发布的内容往往并不能真正代表我们的信念、价值观或愿望。”Blumenthal-Barby 说。即便如此,也很难知道这些帖子如何反映出我们对于临终关怀的感受——许多人发现,即使与家人讨论这些问题都已足够困难,更不用说在公开平台上了。

目前来看,人工智能并不总能在回答人类问题时给出很好的答案。即使是稍微改变给 AI 模型的提示,也可能得到完全不同的回应。“想象一下,这种情况发生在经过精细调整过的大语言模型上,而这个模型本该告诉你患者在临终时的愿望,”Starke 说。“这很可怕。”

另一方面,人类也会犯错。贝勒医学院的生物伦理学家 Vasiliki Rahimzadeh 认为 P4 是一个好主意,前提是它经过了严格的测试。“我们不应该对这些技术设立比对我们自己更高的标准,”她说。

Earp 和 Wendler 承认他们面临着巨大挑战。他们希望构建的工具能够捕捉到有用的信息,这些信息既能反映一个人的意愿又不会侵犯隐私,是患者和代理决策者可以选择使用的有用指南,但它不应成为用来决定患者护理的默认方式。

即使他们在这些方面取得成功,也可能无法控制此类工具最终的使用方式。以 Sophie 的案例来说,如果使用了 P4,它的预测可能只会进一步加剧本已承受压力的家庭关系的分裂。如果将其认定为最接近患者本人的意愿,Blumenthal-Barby 指出,患者的医生可能会感到有法律义务遵循 P4 的输出结果,而不是家庭成员的意见。“这可能会非常混乱,也会给家庭成员带来极大的痛苦,”她说。

“我最担心的是谁来控制它,”Wendler 说。他担心医院可能会滥用像 P4 这样的工具来避免执行成本高昂的程序。“可能会有各种财务激励,”他说。

接受了《麻省理工科技评论》采访的每个人都同意,使用像 P4 这样的工具应该是自愿的,并且它并不适合每个人。“我想它有可能对某些人有所帮助,”Earp 说。“但也有很多人会不愿意让人工智能系统以任何方式参与他们的决策,因为它们的决策事关重大。”

原文链接:

https://www.technologyreview.com/2024/08/01/1095551/end-of-life-decisions-ai-help/

0 阅读:0

深科技利大千

简介:感谢大家的关注