医疗智能应用加速落地:便利与风险并存,行业标准与责任边界亟待明确

医疗人工智能正处于快速发展阶段。

今年初,国际医疗AI领域涌现出多个估值超百亿的产品,跨国科技巨头、药企和创新企业纷纷布局这一赛道。

国内外医疗机构也在积极探索AI在诊疗中的应用前景。

然而,在这股发展热潮中,一些深层次的问题逐渐浮出水面。

通用型医疗AI产品存在明显局限性。

这类AI工具通过网络爬取信息、进行文本匹配和概率计算生成内容,缺乏医学的严谨性和对患者个体情况的深入理解。

复旦大学附属口腔医院院长蒋欣泉委员指出,通用型AI往往无法准确把握患者提问的真实意图,其知识库也难以跟上医疗领域的最新进展。

患者误用AI建议的案例已经造成实际伤害。

上海爱尔眼科医院副院长李勇讲述了一个典型案例:一位白内障手术患者因听信AI关于"眼药水有副作用"的说法,擅自停用术后必需的抗炎和激素眼药水,导致视力下降和角膜轻微褶皱。

患者甚至认为AI综合了多位专家意见,比医生更权威。

这反映出公众对AI的过度信任和对医学知识的理解偏差。

类似的误导现象在其他科室也普遍存在。

口腔科患者因AI提示可能患恶性肿瘤而过度焦虑,实际上只是患了黏液性囊肿;患者将AI生成的健康建议等同于临床诊断意见,导致决策失误。

这些案例表明,当前医疗AI产品在伦理规范、应用安全和信息准确性方面存在明显的灰色地带。

与此同时,专科医学AI的发展展现了不同的前景。

国内多家三甲医院正在探索专业化医学AI的研发。

复旦大学附属中山医院研发的心血管专科医学大模型、仁济医院的泌尿专科AI助手、上海首个胃肠多模态医学AI等产品,都是针对特定领域进行深度训练的专业工具。

其中,胃肠多模态医学AI在公开挑战中与三甲医院副主任医师的诊断水平相当,展示了专科AI的临床应用潜力。

建立完善的行业标准成为当务之急。

业内专家建议,医疗AI必须设置安全底线,包括患者信息的规范脱敏、采用循证医学数据进行训练、确保建议的科学性和安全性。

同时要在医疗体系内明确AI的定位,强调医生是主体责任人,AI仅作辅助工具。

这种明确的角色划分有助于防止患者的认知偏差。

专科医学AI的临床转化需要持续推进。

上海人工智能实验室等研究机构正在对医学AI进行不断的测试和优化,通过医学数据团队对病例数据进行规整化和质量控制,使其更加符合临床诊疗规范。

这种严谨的开发流程为AI的临床应用奠定了基础。

公众教育和认知提升也不可或缺。

社会各界需要明确认识到,当前开放给公众使用的通用型AI与医院的临床诊断和治疗方案存在本质区别。

患者应当理解AI的功能定位,在健康问题上仍需以医生的专业判断为主。

当技术狂奔遇上生命健康这个永恒命题,审慎与创新同样重要。

医疗人工智能的终极价值不在于替代医者,而在于构建更安全、更高效的医疗服务生态。

这既需要技术开发者的责任担当,也呼唤监管智慧的与时俱进,更离不开公众科学素养的全面提升。

只有在多方协同下,这场医疗变革才能真正惠及每一个生命。