在医学领域,人工智能(AI)已逐渐成为诊疗的关键技术。然而,任何技术都会在其发展过程中发现其存在缺陷,AI在医学应用中的一个显著问题是处理多元患者时的潜在偏见。
以美国为例,黑人与白人在肺癌早期诊断上存在显著的差异。相较于白人,黑人得到早期诊断的几率较低。这不仅仅是数字上的偏差,而是有实际的影响。这种偏见,被称作算法偏见,有可能进一步导致算法歧视。许多权威机构都已在AI政策中指出此问题。
同样,图1亦形象再现了人工智能模型在服务不足和少数种族和民族群体中表现出一种诊断不足的模式。这种模式在黑人和西班牙裔女性等交叉群体中尤其明显。像这样的医疗人工智能工具不仅有偏见,而且是健康不平等的一个来源。
图1 显示了Seyyed-Kalantari等人描述的在健康相关风险或结果预测(本例中在服务不足的患者群体中通过胸片检测疾病)中使用人工智能
面板A,数据首先从反映获取和记录数据所处背景的临床来源中提取。人类偏见、与设备相关的偏见(例如,脉搏血氧仪显示深色皮肤患者的血氧合错误),以及来自这些来源的系统性偏见都反映在数据中。
面板B,模型经过训练以最大限度地提高整体性能,这可能会以牺牲其他群体为代价使一个组受益,模型也可能无法捕获临床特征和组属性之间的必要交互作用。当疾病存在时,人工智能读数为“无异常”表示诊断不足。
面板C,模型审查是在培训后进行的,以确保重要的指标,例如假阳性“诊断不足”的发生率,在一个亚组中并不明显低于其他亚组。在饼状图中,红色表示假阳性诊断不足的发生率最大。亚组性能审查是揭示在模型集成之前应该解决的潜在问题的关键的第一步。
学术界深知AI偏见如何转变为算法歧视。一种策略是修正AI训练时的数据偏见,将有偏见的数据作为人工智能辅助卫生保健中的信息人工制品,通过引入更具代表性的数据集来达到这一目的;或结合不同临床机构的数据,以得到更全面和代表性的数据集。
表1 基于技术和人工制品的医学人工智能(AI)方法以解决现存的数据问题
认识到倾斜或缺失的数据会导致算法偏差和歧视,美国国立卫生研究院最近推出了Bridge2AI项目,投资9600万美元,从头开始构建不同的数据集,可用于培训和构建新的医疗人工智能工具。这种多样化的数据集可以帮助AI更准确地为不同的人口统计群体提供服务,从而避免算法歧视,以尽量在减少人工智能偏见和下游歧视方面取得一些进展。
研究方向
将医疗保健数据作为人工制品进行检查,扩展了人工智能开发中数据偏差的技术方法,提供了一种社会技术方法,认为历史和当前的社会背景也是重要的因素。
了解人口不平等的目标,提出利用人工智能来检测与卫生公平相关的数据模式,并建议进行这一重构,以便人工智能在卫生保健领域的发展能够反映出我们对现在和未来确保公平卫生保健的承诺和责任。
参考文献
1. Ferryman K, Mackintosh M, Ghassemi M. Considering Biased Data as Informative Artifacts in AI-Assisted Health Care. N Engl J Med. 2023 Aug 31;389(9):833-838. doi: 10.1056/NEJMra2214964.
2. Seyyed-Kalantari L, Zhang H, McDer[1]mott MBA, Chen IY, Ghassemi M. Under [1] diagnosis bias of artificial intelligence algorithms applied to chest radiographs in under-served patient populations. Nat Med 2021;27:2176-82.
本文仅代表作者个人观点
仅供医务人员参考
欢迎投稿至:conwhite_8@hotmail.com
订阅后可查看全文(剩余80%)