欧洲放射学界警示:人工智能辅助诊断需警惕"协同性误判"风险

问题——从“能不能用”到“用错怎么办” 在2026年欧洲放射学大会(ECR 2026)上,医疗影像智能应用继续受到广泛关注。有关统计显示,会议中相当比例的学术交流围绕对应的议题展开。与前几年更多聚焦技术可行性和应用前景不同,今年业界讨论明显转向临床落地后的关键命题:当系统在真实环境中出现偏差与失误时,如何识别、解释并纠正;当人机协作形成同向误判时,如何防止风险叠加乃至被流程“固化”。 原因——训练数据、环境差异与“捷径学习”埋下隐患 多位与会专家认为,风险往往在算法训练之前就已出现,核心在于训练数据的质量与多样性不足。业内人士指出,数据质量不仅是影像清晰度,更重要的是样本能否覆盖真实医疗场景的复杂性:不同医院设备厂商、成像参数、噪声与伪影类型不同;患者在人种、年龄、性别与地域分布上差异显著;临床路径与操作习惯也存在结构性差别。若模型主要在“理想影像”“理想人群”中训练,其在基层医院、跨地区乃至跨国家应用时,性能下滑并非偶然。 已有研究提示,早期部分面向审批的模型训练数据来源集中于少数地区,代表性不足会带来外推风险:模型在数据覆盖薄弱地区的可靠性缺乏充分验证。更值得警惕的是,模型可能在训练中学习到与疾病并无因果关系的“错误线索”,例如将医院标识、设备特征、操作痕迹或常见伪影当作诊断依据,形成看似准确、实则偏离医学逻辑的推断路径。这类“捷径学习”在单中心或同质化数据集中更难暴露,一旦进入多场景应用,容易触发系统性误判。 影响——提示改变阅读行为,“人机共错”成高风险形态 除算法本身外,人机协作带来的认知效应同样受到关注。研究者从认知科学角度指出,影像诊断并非简单“看图”,而是基于知识结构对信息进行选择、解释与验证。智能系统的标注与提示往往将注意力引导至某一局部区域,强化医生对特定异常的聚焦,但可能挤压对其他区域的侧向扫描与整体策略性监控,从而增加“漏诊”的结构性概率。 相关眼动追踪研究表明,医生在使用辅助提示时存在不同策略:有人高度跟随提示,有人保持独立判断,有人刻意核查未被标注区域。但与会专家特别强调,最危险的并非“完全依赖”或“完全忽视”,而是人机在同一处同时发生偏差:当系统与医生都将注意力集中在某一发现上,其他潜在病灶可能被共同忽略;一旦这种偏差在工作流程中反复出现,还可能形成“自我强化”,使误差以更隐蔽方式扩散。 对策——以数据治理和临床流程再设计守住安全底线 针对上述风险,业界普遍认为需要从数据、模型、流程与伦理四个层面同步发力。 一是前移风险控制关口,建立训练数据的主动审查机制。开发与部署前应明确数据来源结构,覆盖不同地区、不同设备与不同人群,避免单一中心或单一族群主导训练集。对数据采集、标注、清洗、版本管理建立可追溯体系,减少偏倚输入。 二是强化跨场景验证与持续监测。模型在多中心、跨设备、跨人群条件下的性能必须以透明指标呈现,并建立上线后的漂移监测和定期复评机制,及时识别因设备更新、临床路径变化带来的性能衰减。 三是提升可解释性与“反捷径”能力。通过对模型关注区域、特征依赖进行审计,识别是否过度依赖与疾病无关的线索;在训练与评测中引入对抗性测试与伪影控制,降低“学到管子而非学到病”的风险。 四是重塑人机协作的临床流程。将智能提示定位为“第二意见”或“安全网”,通过阅读顺序、强制核查清单、双通道验证等方式,避免提示造成注意力过度集中;同时加强培训,提升医生对模型适用边界与典型失效模式的识别能力。 五是把公平性与责任边界纳入制度化框架。对于在不同性别、年龄或族群中表现差异明显的模型,应明确披露并采取校准策略,防止偏差放大为不公平的医疗结果;在管理层面明确数据使用合规、临床责任划分与风险处置流程,提升可追责性。 前景——从“高性能”走向“可用、可控、可证” 与会观点显示,医疗影像智能应用正进入以临床安全为核心的新阶段。未来竞争焦点将不再只是单一指标上的准确率,而是系统在复杂环境中的稳健性、可解释性与可治理性。谁能把数据代表性、跨场景验证、临床流程嵌入与持续监管做扎实,谁就更可能在真实医疗体系中获得信任与规模化应用空间。

技术进入临床,最值得警惕的不是偶发错误,而是错误在系统与人的共同作用下被默许、被放大。ECR2026释放的信号很明确:放射智能化的下一步,不是追逐更亮眼的指标,而是把训练数据的代表性、临床验证的严谨性、人机协同的科学性落到实处。只有让每一次提示有依据、每一次应用有边界、每一次失误可追溯,才能把效率增益真正转化为患者安全与医疗质量的确定性提升。