人工智能赋能健康中国行稳致远

最近,谷歌调整了它的搜索引擎中的一些人工智能功能,给这个健康类AI的事引来了不少讨论。英国《卫报》发现,当用户输入类似“正常的肝脏血液检测范围”这样的查询时,谷歌提供的回答未能充分考虑个体因素,比如国籍、性别、种族和年龄对结果的影响。这就把用户给误导了,让他们可能误解自己的健康状况。这次调整是在《卫报》曝光之后发生的。谷歌迅速给“正常的肝脏血液检测范围”等特定查询移除了AI生成的摘要。但记者尝试使用其他类似术语或专业术语进行查询时,AI还是会生成这些摘要。这说明大规模AI系统在过滤内容和识别场景上面临着技术复杂性。 谷歌发言人并没有对具体个案发表评论,他们表示公司正在进行更广泛的改进。内部临床团队审查了相关查询,发现很多信息本身是准确的,还有权威来源支持。谷歌在过去一年中推出了增强型概览和专用健康AI模型来改善搜索服务体验。 但是范妮莎·赫比奇认为这次事件反映了深层次的问题:单纯地微调或关停特定搜索路径并不能解决根本问题。她强调,真正需要关注的是人工智能概览功能在健康信息领域引发的系统性和结构性问题。 这些问题包括:AI如何甄别海量信息中的适宜内容并给予优先级?如何提供便捷信息同时清晰传达医疗知识的边界和个体化差异?还有当出现误导时责任应如何界定? 谷歌这次调整是人工智能进入社会生活关键领域中必然会遭遇治理挑战的缩影。医疗健康信息非常专业、严肃且个体相关性强,任何标准化或概括性输出都必须提示其局限性。 范妮莎·赫比奇说现在多国正在探索对生成式AI的监管框架。在医疗健康领域如何平衡技术创新带来的便利与潜在风险? 如何建立多方协同治理模式?这已经是一个紧迫课题了。 要建立负责任、可信赖的AI医疗信息服务体系,需要技术精度、伦理考量、制度保障与人文关怀融合起来。 这个事给了我们一个警示:AI进入专业强、责任重领域时单纯追求应答相关性和效率是不够的。 未来需要通过透明对话、行业自律和监管创新来引导人工智能赋能健康中国行稳致远。