浙江省立同德医院近日接诊一例因不当用药导致的急性肾损伤患者;患者吴先生因口周疱疹问题,通过网络AI问诊获取治疗建议,随后自行购买并服用抗病毒药物伐昔洛韦。但AI仅提示"每次服用几粒",未明确药品规格和剂量单位,导致患者实际服用量达到标准剂量的3倍以上。加之患者同时服用消炎止痛药物,两种药物在超剂量状态下产生相互作用,最终引发急性肾小管坏死和过敏性间质性肾炎,患者血肌酐指标严重异常。 这不是个案。当前医疗AI应用范围不断扩大,从健康管理、用药提醒到辅助诊断,AI已成为医疗体系的重要补充。但这种广泛应用也带来了新的风险。当患者绕过专业医疗体系,直接依赖AI生成的"治疗方案"进行自我用药时,潜在的医疗风险随之而来。 从技术层面看,AI的信息输出存在明显缺陷。医学用药涉及患者肝肾功能、年龄、体重、合并用药、过敏史等多个个体化因素,这些对确定安全有效的用药方案至关重要。而AI在此案例中仅提供了"粒数"建议,完全忽视了药品规格差异、剂量单位转换、个体化调整等专业医学知识。这种"去语境化"的信息输出,对缺乏医学背景的用户而言,极易造成理解偏差和用药错误。 从用户认知层面看,部分患者对AI的功能定位存在误解。许多人将AI问诊视为"电子医生",将其建议等同于医学诊断。医学诊断需要医生通过病史采集、体格检查、辅助检查等多个环节进行综合判断,AI目前还无法完全替代该过程。患者健康素养不足,容易被看似权威的AI建议所迷惑。 面对AI与医疗融合的大趋势,完全否定显然不理性,但建立有效的防护机制已成为当务之急。 从监管层面看,相应机构需要推出AI健康咨询的行业标准与规范,明确信息输出的准确性要求、风险提示的强制内容、责任边界划分等关键问题。这些标准应具有强制约束力,确保AI应用不会对患者造成伤害。 从平台层面看,AI服务提供商应建立严格的内部审核机制。对涉及用药、诊断等直接关乎患者生命安全的问题,需要设置多重确认与警示程序,确保输出信息的准确性和完整性。同时应在用户界面上清晰标注AI问诊的局限性,强制性提示用户在涉及用药决策时必须咨询专业医生。探索"AI建议加人工复核"的混合服务模式,主动引导用户连接线下医疗资源,形成完整的服务闭环,是降低风险的有效途径。 从患者层面看,提升健康素养和信息辨别能力同样重要。公众需要认识到,AI问诊只是医疗资源的补充手段,其作用是提供初步的健康信息和建议,而非替代专业医生的诊断与处方。在享受技术便利的同时,应当保持理性态度,对于涉及用药、诊断等重要医疗决策,必须咨询具有资质的医疗专业人士。这不仅是医学常识,更是对自身生命健康的基本尊重。
医疗的复杂性决定了任何便捷工具都不应被神化。面对海量信息与多样服务,公众需要守住一个底线:涉及药品尤其是处方药的使用,必须以正规诊疗与专业建议为准。服务提供方与监管部门也应共同把风险提示做在前面、把责任链条压在实处。让技术更好服务健康,关键不在"更快给答案",而在"更稳守安全"。