当前位置: 首页 > news >正文

Nat Med病理AI系列|哈佛大学团队发表研究,探讨深度学习在病理诊断中的公平性问题及解决方案|顶刊精析·24-11-02

小罗碎碎念

今天分析Nature Medicine病理AI系列的第四篇文章——《Demographic bias in misdiagnosis by computational pathology models》,来自哈佛大学 Faisal Mahmood课题组。

文章标题及发表时间

这篇文章很有意思,是他们课题组发了几篇基础模型以后,附赠的一篇产物。为什么这么说呢?因为这篇文章研究的是数据集的偏差问题,或者说模型的公平性问题,最后用他们发表的基础模型的来做测试,发现通过基础模型提取特征,可以缓解这种偏差程度。

https://doi.org/10.1038/s41591-024-02885-z

作者类型作者姓名作者单位(中文)
第一作者Anurag Vaidya哈佛医学院布里格姆和妇女医院病理科
第一作者Richard J. Chen哈佛医学院布里格姆和妇女医院病理科
第一作者Drew F. K. Williamson哈佛医学院布里格姆和妇女医院病理科
通讯作者Faisal Mahmood哈佛医学院布里格姆和妇女医院病理科

文章探讨了在计算病理学模型中,由于人口统计因素对模型性能的影响,可能导致的诊断偏差问题。

主要内容包括:

  1. 问题背景:尽管基于深度学习的计算病理系统获得了越来越多的监管批准,但这些系统往往忽视了人口统计因素对性能的影响,可能导致偏差。尤其是在使用大型公共数据集时,这些数据集往往不能充分代表某些人口群体。

  2. 研究方法:研究者使用了来自癌症基因组图谱(The Cancer Genome Atlas, TCGA)和EBRAINS脑肿瘤图谱的公开数据,以及内部患者数据,展示了在用于乳腺癌和肺癌亚型分类以及预测胶质瘤中IDH1突变的全切片图像分类模型在不同人口统计群体间显示出显著的性能差异。

  3. 研究发现:例如,在乳腺癌亚型分类中,白人和黑人患者之间的性能差距(以接收者操作特征曲线下面积表示)为3.0%,肺癌亚型分类为10.9%,胶质瘤中IDH1突变预测为16.0%。研究发现,从自监督视觉基础模型获得的更丰富的特征表示可以减少群体间性能差异

  4. 研究意义:尽管自监督视觉基础模型不能完全消除这些差异,但它们在减少偏差方面显示出潜力,这强调了在计算病理学中继续努力减轻偏差的必要性。研究还表明,结果不仅限于种族,还扩展到其他人口统计因素。

  5. 政策建议:鉴于这些发现,研究者鼓励监管和政策机构在评估指南中纳入按人口统计分层的评估。

文章强调了在开发和部署计算病理学模型时,需要考虑和解决模型可能存在的人口统计偏差,以确保所有患者群体都能获得公平和准确的诊断。


一、数据集特征、公平性指标和建模选择研究

TCGA、MGB队列和EBRAINS脑肿瘤图谱

这张图展示了模型的开发和验证过程,特别是在不同种族和数据集上的表现。

研究的重点是检查算法是否在不同种族群体中表现一致,是否存在偏差。

以下是对图中各部分的详细分析:

训练和验证 (Training and validation)

  1. TCGA-BRCA (n = 1,049): 这是乳腺癌数据集,包含1,049个样本。种族分布为:亚洲人(5.2%)、黑人(16.1%)、白人(69.1%)和其他(9.6%)。
  2. TCGA-lung (n = 1,043): 这是肺癌数据集,包含1,043个样本。种族分布为:亚洲人(1.6%)、黑人(8.5%)、白人(73.5%)和其他(16.4%)。
  3. EBRAINS brain tumor atlas (n = 873): 这是脑肿瘤数据集,包含873个样本。所有样本均为非报告种族。

弱监督多实例学习 (Weakly supervised MIL)

  • 模型在训练数据上进行训练,使用弱监督多实例学习(MIL)方法。这种方法允许模型从包含多个实例的数据集中学习,即使这些实例的标签不完全准确。

独立测试 (Independent test)

  1. MGB-breast (n = 1,265): 这是乳腺癌的独立测试数据集,包含1,265个样本。种族分布为:亚洲人(11.2%)、黑人(13.0%)、白人(71.4%)和其他(4.4%)。
  2. MGB-lung (n = 1,960): 这是肺癌的独立测试数据集,包含1,960个样本。种族分布为:亚洲人(7.2%)、黑人(6.5%)、白人(83.2%)和其他(3.1%)。
  3. TCGA-GBMLGG (n = 1,123): 这是胶质母细胞瘤数据集,包含1,123个样本。种族分布为:亚洲人(2.7%)、黑人(6.5%)、白人(87.5%)和其他(3.3%)。

调查模型公平性 (Investigate model fairness)

  • 敏感性 (Sensitivity): 图表显示了模型在不同种族(白人、亚洲人、黑人)上的敏感性。敏感性是指模型正确识别正例的能力。
  • 特异性 (Specificity): 图表显示了模型在不同种族上的特异性。特异性是指模型正确识别负例的能力。
  • TPR差异 (TPR disparity): 图表显示了不同种族间的真阳性率(True Positive Rate, TPR)差异。TPR是敏感性的另一种说法。
  • WSI embedding: 这部分涉及到使用全切片图像(Whole Slide Image, WSI)进行特征嵌入,以预测种族。

这张图强调了在机器学习模型开发中考虑种族多样性和模型公平性的重要性。


多实例学习的不同阶段

这张图展示了一个用于全切片图像(Whole Slide Image, WSI)分析的机器学习流程。

浸润性导管癌,IDC;浸润性小叶癌,ILC

以下是对图中各部分的详细分析:

数据预处理和增强 (Data Preprocessing and Augmentation)

  1. WSI: 全切片图像,没啥好解释的。
    • Site stratification: 根据图像来源的地点进行分层,以确保模型训练的多样性和代表性。
    • Stain normalization: 标准化染色过程,因为不同的染色技术可能会影响图像的颜色和对比度。
    • Test set resampling: 对测试集进行重新采样,以确保模型在未见过的数据上也能表现良好。
    • Importance weighting: 根据样本的重要性进行加权,这可能涉及到对某些关键特征或区域给予更高的关注。

图像分割和打补丁 (Segment and Patch)

Segment and patch: 将WSI图像分割成多个小块(patches),这些小块随后被用于训练模型。

补丁编码 (Patch Encoding)

Patch encoder: 使用不同的模型(如ResNet50、CTransPath、UNI)对这些图像块进行编码,提取特征。

补丁聚合 (Patch Aggregation)

Patch aggregator: 将所有补丁的特征进行聚合,以形成一个综合的特征表示。这一步涉及到使用特定的算法(如ABML、CLAM、TransMIL)来整合信息。

WSI嵌入和分类 (WSI Embedding and Classification)

  1. WSI embedding: 将聚合后的特征转换为WSI级别的嵌入,这代表了整个图像的特征。
  2. Classifier: 使用分类器对WSI嵌入进行分类,预测癌症类型。

任务预测和公平性策略 (Task Prediction and Fairness Strategy)

  1. Task prediction: 根据模型的输出进行最终的癌症类型预测。
  2. Fairness strategy: 采取一系列策略来确保模型的预测是公平的,这包括控制批次效应和测试集偏差、建模选择以及偏差缓解策略。

常见的偏差缓解策略

这张图展示了两个主要概念:加权采样(Weighted sampling)和偏差缓解策略(Bias mitigation strategies),用于改善机器学习模型的公平性和准确性。

IW策略通过调整样本权重来确保每个种族在训练集中都有适当的代表性。AR策略旨在训练模型,使其无法从特征中识别出种族信息,从而减少种族偏见。

c, IW(逆权重)根据种族群体的人口规模反向采样,以确保公平代表。d, AR(种族无关)通过使嵌入对种族不可知来缓解偏差。

加权采样 (Weighted sampling)

  1. Original training set: 原始训练集包含不同类别的数据点,其中某些类别(如蓝色和橙色)可能比其他类别(如青色)更常见。
  2. Weighted sampling: 通过加权采样技术,模型在训练过程中给予较少见的类别更高的权重。这有助于平衡类别间的不平衡,确保模型不会偏向于多数类。
  3. Balanced training set: 结果是得到一个更平衡的训练集,其中所有类别的数据点在训练过程中具有相似的影响力。

偏差缓解策略 (Bias mitigation strategies)

  1. Patch aggregator: 从图像中提取的多个补丁(patches)被聚合以形成图像级别的特征表示。
  2. Race attribute: 在模型训练中加入种族属性,这可能是为了监控或调整模型对不同种族的预测行为。
  3. Task classifier: 主要的分类器负责任务预测,如癌症类型的识别。
  4. Race classifier: 辅助分类器尝试预测种族属性,这通常不是最终目标,但用于调整模型以减少种族偏见。
  5. Debiased latent embedding: 通过最大化种族预测的损失(即,使种族预测变得困难),同时最小化任务预测的损失,模型学习到一个去偏见的特征嵌入(latent embedding)。
  6. Maximize loss in race prediction: 通过增加种族分类器的预测难度,推动模型学习到一个更公平的表示。
  7. Minimize loss in task prediction: 确保模型在主要任务(如疾病诊断)上保持高准确性。

二、数据特征导致的偏差

肺、乳腺癌亚型分类及IDH1突变预测

这张图是一个雷达图,用于展示不同种族(白人、黑人、亚洲人)在三种不同任务(IDH1突变检测、肺亚型分类、乳腺亚型分类)上的表现,以及整体表现。

image-20241102102007125

图中使用了三种不同的模型:ResNet50、CTransPath和UNI。以下是对图中各部分的详细分析:

种族和任务

  • White (青色): 代表白人群体的表现。
  • Black (蓝色): 代表黑人群体的表现。
  • Asian (橙色): 代表亚洲人群体的表现。
  • Overall (黑色虚线): 代表所有种族的总体表现。

任务

  • IDH1 mutation: 检测IDH1基因突变的任务。
  • Lung subtyping: 肺亚型分类任务。
  • Breast subtyping: 乳腺亚型分类任务。

切块编码器预训练规模

没啥好解释的


每个任务的种族分层TPR差异

这张图展示了在不同癌症亚型和IDH1突变状态中,不同种族(白人、黑人、亚洲人)之间的真阳性率(TPR)差异。

将没有数据处理(称为“Base”)的UNI编码器的ABMIL与具有站点保留训练和染色归一化的变体进行了对比,使用重新采样的测试队列进行测试。IDH1突变预测不可用站点分层训练。

颜色代表种族

图中右侧的箱线图展示了在应用数据预处理和增强策略(如地点分层、染色标准化、测试集重采样)后,不同种族之间的TPR差异有所减少,表明这些策略有助于减少种族间的预测差异,提高模型的公平性。



http://www.mrgr.cn/news/64042.html

相关文章:

  • SpringBoot中使用多线程ThreadPoolTaskExecutor+CompletableFuture
  • 【二分查找】——模板
  • 泡泡玛特行至巅峰,又顷刻“瓦解”?
  • Python中的字符串“不可改变。/可以改变?”
  • 基于 Python 的 Django 框架开发的电影推荐系统
  • Centos安装配置Jenkins
  • 从零开始学AIStarter:创作者模式全攻略【AI工作流、数字人、大模型、对话、设计...】
  • 【生物学&水族馆】观赏淡水鱼检测系统源码&数据集全套:改进yolo11-dysample
  • 2024年华为OD机试真题-最小的调整次数-Python-OD统一考试(E卷)
  • 第三百零九节 Java JSON教程 - JSON语法
  • 平安养老险党委书记、董事长甘为民: “养老金融”大发展正当其时,空间广阔
  • Spring Boot详解:从入门到精通
  • 最全面的AI大模型面试题集合,存一下吧很难找全的!
  • [含文档+PPT+源码等]精品基于PHP实现的鲜花批发销售网站的设计与实现
  • 运维工程师运维管理文档,运维建设方案,运维整体配套资料(word原件整套)
  • 阿里国际2025届校园招聘 0826算法岗笔试
  • 将数学学生搞糊涂的糊涂话:面积(路程)是一种对应规则(关系)
  • 数据挖掘(五)
  • Python数据类型探索:深入理解frozenset及其线程安全与进程安全性
  • “炼心”和“练心”的区别是什么
  • Linux命令学习记录
  • 公有云开发基础教程
  • 信息孤岛破局:建设高效沟通文化的策略
  • 论文阅读:Computational Long Exposure Mobile Photography (二)
  • 高效水电管理:Spring Boot在大学城的应用
  • CentOS 7系统下Redis Cluster集群一键部署脚本发布