问题——“高分通过”不等于“临床可用” 随着技术快速发展,AI医疗领域的应用备受期待,尤其是在健康咨询、症状判断和慢病管理诸上。然而,《自然-医学》发表的一项研究指出,AI模型标准测试中的优异表现并不能直接转化为对真实患者的可靠支持。研究发现,在模拟测试中,AI的疾病识别能力较高,但当普通人用自我描述的方式提交症状并获取建议时,其诊断准确率不足34.5%,对后续行动(如是否就医、是否急诊)的判断正确率仅为44.2%,甚至低于传统互联网搜索的表现。 原因——信息失真与生成偏差放大风险 研究团队分析,AI在真实场景中表现下滑的关键原因在于信息链条的复杂性: 1. 患者提供的信息往往不完整或表述模糊,而AI无法像医生那样通过追问、检查或病史核验来补充信息。 2. AI在生成内容时可能出现误导性表述或事实性错误,尤其在症状相似、病因复杂或涉及用药风险的情况下,概率性答案被误认为确定性结论的风险较高。 3. 医疗决策不仅需要诊断名称,还需评估风险分层和紧急程度,涉及“是否需要立即就医”“是否可以观察”等连续判断,这对AI的上下文理解能力和安全阈值提出了更高要求。 影响——公众自我判断风险被低估,医疗系统承压 过度依赖AI可能带来两种危险后果:一是将严重症状误判为小问题,延误治疗;二是将轻症误判为重病,引发不必要的焦虑和医疗资源浪费。从医疗系统角度看,若缺乏规范引导,AI的广泛使用可能导致急诊资源挤占、基层医疗秩序被打乱,甚至削弱公众对正规医疗渠道的信任。 对策——明确AI定位,完善规范与健康素养 业内普遍认为,AI在医疗领域的价值应定位于“辅助工具”而非“替代医生”: 1. 明确应用边界:低风险任务(如健康科普、用药查询、随访提醒)可在严格审核下探索;高风险环节(如诊断、治疗方案选择)必须由专业医生主导。 2. 强化风险提示:健康咨询产品需确保知识来源可追溯,设置强制就医提醒,避免模糊表述替代临床判断。 3. 提升公众健康素养:公众应掌握基本健康常识,遇到持续加重、突发剧烈症状或危险信号时及时就医;慢病患者需遵循医嘱,而非依赖网络建议调整用药。 4. 推动监管协同:在数据安全、产品准入、责任划分等上制定细化规则,避免技术应用跑安全规范之前。 前景——从“能回答”到“能负责”仍需突破 研究并未否定技术进步,但强调医疗场景对可靠性、可解释性和责任闭环的高要求。未来,AI需在医学知识更新、真实世界验证、多学科协作及与医疗流程深度融合等上持续突破。更重要的是,任何技术进入诊疗环节都应以患者安全为底线,以循证医学为依据,逐步实现“可用、好用、放心用”。
医疗的核心是保障生命健康,任何新技术的引入都必须以安全、有效和可追责为前提;大语言模型虽能提升医疗信息可及性,但公众需明确:它只能辅助理解,无法替代专业诊疗。未来,只有通过临床验证、监管完善和健康素养提升共同筑牢“安全底座”,技术才能真正为公共健康带来可靠增益。