谷歌启动专项招聘应对智能摘要技术缺陷 健康领域误导性信息引关注焦点

谷歌搜索的AI摘要功能问题日益凸显。系统经常生成虚构信息,即业界所称的"幻觉"现象;对同一问题的不同表述,AI摘要给出的答案往往相互矛盾,严重影响用户体验。更令人担忧的是,这类问题健康、医疗等涉及生命安全的领域表现尤为突出。英国《卫报》的调查发现,谷歌AI摘要在健康问题上频繁提供误导性甚至完全错误的医学建议。 问题的根本原因在于AI生成内容的固有局限。当前的大规模语言模型虽然能快速生成流畅文本,但本质上是基于统计规律进行预测,而非真正理解信息准确性。在海量数据训练中,模型容易学习到错误或过时的信息,进而在生成内容时再现。此外,AI系统缺乏有效的事实核查机制,无法在生成答案前进行充分的真实性验证。 影响范围正在扩大。谷歌正为越来越多用户展示AI摘要功能,并将其集成到Discover信息流中,甚至用AI重写新闻标题。这意味着数亿用户可能接收到不准确的信息。用户对谷歌这样的权威搜索引擎往往高度信任——容易无条件接受其内容——使得错误信息的危害被大幅放大。在医疗健康领域,错误的AI摘要可能直接影响用户决策,带来严重的健康风险。 为应对此挑战,谷歌采取了多管齐下的策略。招聘信息显示,谷歌计划建立专门的质量验证团队,负责对AI生成的答案进行系统审核和改进。这些工程师将通过人工审核、反馈循环等方式,逐步优化系统的准确性。虽然谷歌在过去几个月已持续改进答案质量,但这些努力仍不足以解决问题的根本。 从更深层看,这一招聘计划反映出AI技术在商业应用中面临的普遍困境。当AI系统被大规模部署到影响数亿用户的关键应用中时,其准确性和可靠性问题就不再是技术细节,而是涉及社会责任的重大议题。谷歌的做法表明,业界正认识到仅依靠算法优化是不够的,必须引入人工审核、质量控制等传统方法来确保信息准确性。 展望未来,AI摘要功能的完善将是一个长期过程。要从根本上解决AI幻觉问题,还需在模型架构、训练方法、事实核查机制等多个上进行深层创新。同时,行业需建立更加严格的标准和规范,确保AI生成内容在大规模应用前经过充分验证。对用户而言,在享受AI技术便利的同时,也应保持必要的警惕,对关键信息进行多源验证。

搜索的价值在于帮助公众更快触达真实、可靠的信息。生成式摘要提升了效率,也带来了新的风险。对平台而言,承认问题并以工程化方式强化核验与纠错,是重建信任的必要一步;对行业而言,建立可验证、可追溯、可问责的机制,才能让技术进步更稳妥地服务公众需求。只有把"可信"置于"好用"之前,新的搜索形态才能真正经得起时间与社会的检验。