医疗人工智能正处于快速发展阶段。
今年初,国际医疗AI领域涌现出多个估值超百亿的产品,跨国科技巨头、药企和创新企业纷纷布局这一赛道。
国内外医疗机构也在积极探索AI在诊疗中的应用前景。
然而,在这股发展热潮中,一些深层次的问题逐渐浮出水面。
通用型医疗AI产品存在明显局限性。
这类AI工具通过网络爬取信息、进行文本匹配和概率计算生成内容,缺乏医学的严谨性和对患者个体情况的深入理解。
复旦大学附属口腔医院院长蒋欣泉委员指出,通用型AI往往无法准确把握患者提问的真实意图,其知识库也难以跟上医疗领域的最新进展。
患者误用AI建议的案例已经造成实际伤害。
上海爱尔眼科医院副院长李勇讲述了一个典型案例:一位白内障手术患者因听信AI关于"眼药水有副作用"的说法,擅自停用术后必需的抗炎和激素眼药水,导致视力下降和角膜轻微褶皱。
患者甚至认为AI综合了多位专家意见,比医生更权威。
这反映出公众对AI的过度信任和对医学知识的理解偏差。
类似的误导现象在其他科室也普遍存在。
口腔科患者因AI提示可能患恶性肿瘤而过度焦虑,实际上只是患了黏液性囊肿;患者将AI生成的健康建议等同于临床诊断意见,导致决策失误。
这些案例表明,当前医疗AI产品在伦理规范、应用安全和信息准确性方面存在明显的灰色地带。
与此同时,专科医学AI的发展展现了不同的前景。
国内多家三甲医院正在探索专业化医学AI的研发。
复旦大学附属中山医院研发的心血管专科医学大模型、仁济医院的泌尿专科AI助手、上海首个胃肠多模态医学AI等产品,都是针对特定领域进行深度训练的专业工具。
其中,胃肠多模态医学AI在公开挑战中与三甲医院副主任医师的诊断水平相当,展示了专科AI的临床应用潜力。
建立完善的行业标准成为当务之急。
业内专家建议,医疗AI必须设置安全底线,包括患者信息的规范脱敏、采用循证医学数据进行训练、确保建议的科学性和安全性。
同时要在医疗体系内明确AI的定位,强调医生是主体责任人,AI仅作辅助工具。
这种明确的角色划分有助于防止患者的认知偏差。
专科医学AI的临床转化需要持续推进。
上海人工智能实验室等研究机构正在对医学AI进行不断的测试和优化,通过医学数据团队对病例数据进行规整化和质量控制,使其更加符合临床诊疗规范。
这种严谨的开发流程为AI的临床应用奠定了基础。
公众教育和认知提升也不可或缺。
社会各界需要明确认识到,当前开放给公众使用的通用型AI与医院的临床诊断和治疗方案存在本质区别。
患者应当理解AI的功能定位,在健康问题上仍需以医生的专业判断为主。
当技术狂奔遇上生命健康这个永恒命题,审慎与创新同样重要。
医疗人工智能的终极价值不在于替代医者,而在于构建更安全、更高效的医疗服务生态。
这既需要技术开发者的责任担当,也呼唤监管智慧的与时俱进,更离不开公众科学素养的全面提升。
只有在多方协同下,这场医疗变革才能真正惠及每一个生命。