算法走进诊疗“最后一公里”责任如何厘清——《AI医疗治理白皮书(2026)》在沪发布

随着人工智能技术在医疗领域的广泛应用,一系列深层次的治理问题随之浮出水面。

当AI诊断系统与临床医生的判断出现分歧时,医患双方应该相信谁?

一旦诊疗结果不理想,责任应如何划分?

这些问题不仅关乎医疗质量和患者权益,更涉及整个医疗体系的信任基础。

正是基于这些现实困境,学界、医疗界、产业界与监管机构的代表日前汇聚复旦大学管理学院,共同探讨AI医疗在快速发展过程中的治理框架与创新路径。

当前,AI技术在医学影像诊断、疾病预测、个性化治疗等领域已展现出显著优势,其处理大规模数据、识别微观病变的能力往往超越人类医生。

然而,这种技术优势也带来了新的挑战。

医疗决策涉及伦理判断、人文关怀、综合权衡等多个维度,不能完全由算法主导。

同时,当前的监管框架主要针对传统医疗活动设计,对于AI参与的新型诊疗模式还缺乏明确的规范。

这种治理滞后性可能导致责任归属不清、风险防控不力等问题。

复旦大学管理学院院长助理、管理科学系教授冯天俊在论坛上提出,人类应当"用思考对抗同化,用合作对抗迷茫"。

这一论述准确把握了AI时代的核心挑战:既要避免盲目依赖算法导致人的主体性丧失,又要通过开放包容的态度化解对新技术的困惑。

这一理念在随后发布的《AI医疗治理白皮书(2026)》中得到了系统体现。

白皮书认为,AI医疗治理是一项复杂的社会技术系统工程,不能单纯依靠政府监管或市场自律来解决。

政府部门虽掌握监管权力,但在医疗和技术领域存在认知盲区,难以对所有风险进行有效防控。

医疗机构和企业则拥有专业深度和实践经验,更能准确识别和应对具体场景中的问题。

因此,只有建立多元主体参与的共治机制,才能在激励创新与防控风险之间找到最大公约数。

具体而言,这种多元共治体系应包括以下要素:政府部门需要制定基本的法律框架和监管底线,明确AI医疗的准入条件、安全标准和责任划分原则;医疗机构应当建立AI应用的伦理审查机制,确保算法建议不替代医生的最终决策权,并做好医患沟通;企业则需要提高算法的可解释性和透明度,主动接受监督,承担相应的产品责任;学术机构和行业组织可以发挥桥梁作用,推动标准制定、技术验证和知识共享。

从国际经验看,欧盟的《人工智能法案》、美国FDA对软件类医疗器械的分级监管等探索已提供了有益参考。

但中国的AI医疗治理需要结合自身国情,充分考虑医疗资源分布不均、患者群体差异大、创新应用需求迫切等特点。

当前,AI医疗的应用场景正在不断拓展。

从辅助诊断到疾病预测,从手术规划到康复指导,AI正在成为现代医疗体系的重要组成部分。

与此同时,相关的伦理、法律和社会问题也日益凸显。

建立科学合理的治理框架,既能保护患者权益,也能给予企业和医疗机构必要的创新空间,这对推动AI医疗行业的健康发展至关重要。

医疗AI的治理不仅是一场技术革命,更是一次制度创新的考验。

在科技与人文的十字路口,如何既释放创新活力又守护生命底线,需要全社会凝聚智慧。

正如白皮书所呼吁的,唯有以合作为基石、以责任为纽带,才能让技术真正服务于健康中国的长远目标。