最近Nature Medicine发表了一份针对OpenAI旗下ChatGPT Health的独立安全评估报告,引发了广泛关注。研究发现,ChatGPT Health在识别医疗紧急情况时存在明显不足,超过51.6%的情况下给出了错误的判断,低估了病情的严重程度。这个研究把人们对AI在医疗领域的信任推向了一个新的考验。伦敦大学学院的专家警告说,这种技术缺陷可能导致致命的后果。 AI在医疗领域的应用目前正面临严峻的安全问题。研究团队给60个真实病例进行了测试,涵盖从轻微感冒到危及生命的各种情况,把AI的建议与专业医生的临床判断进行对比。结果显示,对于那些需要立即送医的急诊案例,ChatGPT Health居然有超过50%的概率建议患者留在家中或者预约普通门诊。特别是在一次呼吸衰竭的案例中,尽管系统已经识别出了呼吸衰竭的早期迹象,但依然给出了“继续观察”而不是“立即就医”的错误指令。 更令人担忧的是,在针对健康个体进行模拟时,有64.8%的人被建议立即就医。这种严重的过度反应不仅给患者带来不必要的恐慌和麻烦,还可能导致人们对AI产生“虚假安全感”。伦敦大学学院的研究人员指出,“虚假安全感”是最大杀手。他们指出,在遇到胸痛、呼吸困难等疑似急症时,盲目听信AI建议而不求助专业医生可能付出无法挽回的生命代价。 面对这些质疑,OpenAI发言人表示欢迎这类独立研究,并强调模型正在持续更新中。然而,在AI深度介入医疗决策之前,建立明确安全标准和独立审计机制已经迫在眉睫。普通用户在遇到健康问题时或许可以把AI建议作为参考,但在关键时刻仍需咨询专业医生。 这个最新研究给全球每天超过4000万使用ChatGPT Health获取健康建议的人泼了一盆冷水。自今年1月推出以来,ChatGPT Health一直被定位为用户管理医疗记录和获取健康建议的智能助手。然而最新结果显示它在关键时刻“掉链子”,无法有效地识别并处理紧急情况。 总的来说,在紧急情况下依靠AI可能带来巨大风险。专家们呼吁必须建立严格审计机制来确保技术安全可靠,并防止类似问题再次发生。