当前位置:首页>生活 >内容

揭示医学成像人工智能模型中的偏见

2023-04-27 09:24:06生活自然的汉堡

人工智能和机器学习 (AI ML) 技术不断在多个学科中寻找新的应用。医学也不例外,人工智能 机器学习被用于各种疾病的诊断、预后、风险评估

人工智能和机器学习 (AI/ML) 技术不断在多个学科中寻找新的应用。医学也不例外,人工智能/机器学习被用于各种疾病的诊断、预后、风险评估和治疗反应评估。特别是,AI/ML 模型在医学图像分析中的应用越来越多。这包括 X 射线、计算机断层扫描和磁共振图像。在医学成像中成功实施 AI/ML 模型的一个关键要求是确保它们的正确设计、培训和使用。然而,在现实中,开发适用于所有人口成员并且可以推广到所有情况的 AI/ML 模型极具挑战性。

揭示医学成像人工智能模型中的偏见

与人类非常相似,AI/ML 模型可能存在偏差,并可能导致对医学上相似的病例进行差别对待。尽管存在与引入此类偏差相关的因素,但解决这些偏差并确保对用于医学成像的 AI/ML 的公平、公正和信任非常重要。这需要确定医学成像 AI/ML 中可能存在的偏差来源,并制定减轻这些偏差的策略。如果不这样做,可能会给患者带来不同的好处,加剧医疗保健获取的不平等。

据《 医学影像学杂志》 (JMI)报道,来自医学影像和数据资源中心 (MIDRC) 的多机构专家团队,包括医学物理学家、AI/ML 研究人员、统计学家、医生和来自监管机构的科学家,解决了这个问题。在这份综合报告中,他们确定了在从数据收集、数据准备和注释、模型开发、模型评估和模型部署的开发和实施医学影像 AI/ML 的五个关键步骤中可能出现的 29 个潜在偏差来源,其中有许多识别出可能在多个步骤中发生的偏差。讨论了偏差缓解策略,并且还在MIDRC 网站上提供了信息 。

偏差的主要来源之一在于数据收集。例如,从一家医院或单一类型的扫描仪获取图像可能会导致数据收集有偏差。数据收集偏差也可能由于在研究期间和整个医疗保健系统内如何对待特定社会群体的差异而产生。此外,随着医学知识和实践的发展,数据可能会过时。这在基于此类数据训练的 AI/ML 模型中引入了时间偏差。

其他偏差来源在于数据准备和注释,并与数据收集密切相关。在此步骤中,可以根据数据在输入 AI/ML 模型进行训练之前的标记方式引入偏差。这种偏见可能源于注释者的个人偏见,或者源于与数据本身如何呈现给负责标记的用户有关的疏忽。

基于 AI/ML 模型本身的推理和创建方式,模型开发过程中也可能出现偏差。一个例子是遗传偏差,当有偏差的 AI/ML 模型的输出用于训练另一个模型时,就会发生这种情况。模型开发中偏差的其他例子包括由目标人群的不平等代表性或源于历史环境的偏差,例如导致歧视性做法的社会和制度偏差。

模型评估也可能是潜在的偏见来源。例如,测试模型的性能可能会通过使用已经存在偏差的数据集进行基准测试或通过使用不适当的统计模型来引入偏差。

最后,在真实环境中部署 AI/ML 模型的过程中,偏见也会悄悄出现,主要来自系统用户。例如,当模型未用于图像或配置的预期类别时,或者当用户过度依赖自动化时,就会引入偏差。

除了识别并彻底解释这些潜在偏差的来源外,该团队还提出了可能的缓解方法和实施医学成像 AI/ML 模型的最佳实践。因此,这篇文章为研究人员、临床医生和公众提供了关于 AI/ML 在医学成像中的局限性的宝贵见解,并为他们在不久的将来补救提供了路线图。反过来,这可以促进未来更公平、公正地部署医学影像 AI/ML 模型。

声明本站所有作品图文均由用户自行上传分享,仅供网友学习交流。若您的权利被侵害,请联系我们

Top