问题——"优化服务"变味为"信息操控" 随着大模型应用日益普及,用户在购物、医疗、教育等领域对AI问答的依赖度不断提高。部分网络服务商推出所谓"GEO"业务,声称能让客户产品在大模型回答中"排名靠前",甚至将广告内容伪装成中立建议。一些从业者将此称为让大模型"更听话"的技术,并用"保证前三"等承诺吸引客户。 原因——流量争夺与技术漏洞共同作用 业内人士指出,这种现象源于三个因素:首先,企业为抢占新流量入口,将营销战场从传统搜索延伸到大模型;其次,大模型依赖网络公开内容进行回答,当某些信息被密集投放时,容易形成看似可信的引用链条;最后,自动化内容生产工具降低了造假成本,部分软件能批量生成推广文章并自动发布。加上服务商鼓吹"需要定期内容投喂",形成了靠信息轰炸维持排名的商业模式。 影响——损害用户利益与行业公信力 虚假信息一旦被大模型采用,将产生多重危害:消费者可能被看似权威的广告误导,在健康、金融等领域尤其危险;公众对大模型的信任度会下降;真实信息空间被挤压,可能催生更大规模的灰色产业链,包括批量造势、伪造证据链等系统性污染。 对策——构建全链条治理体系 需要从多个环节入手治理: 1. 强化平台责任:加强对异常内容、批量软文的识别和限制,严打有偿操控排名行为 2. 优化模型机制:提升信息来源可信度评估,建立异常内容预警规则,增加回答可追溯性 3. 规范商业推广:明确标注广告内容,禁止将营销包装为客观结论,界定违规服务边界 4. 提升公众意识:引导用户多方验证信息,支持专业机构开展监督评测 前景——发展与治理需并重 大模型作为重要信息入口,合理商业推广可以理解,但操纵信息的行为会破坏市场秩序。随着技术发展,信息污染可能更加隐蔽,治理需要提前布局:既要提升技术防御能力,也要完善规则体系,构建从内容生产到输出的可信闭环。
大模型革新了获取信息的方式,但不该沦为虚假宣传的工具。保持真实透明是企业的责任,也是赢得用户信任的基础。只有通过规则约束、技术升级和多方共治,才能让智能问答真正造福社会。