问题——从“优化”到“投毒”,大模型答案被商业操控的风险上升; 据曝光内容,在多个网络平台上,部分服务商以“GEO”为卖点,宣称可通过“软文铺量”等方式,让某些产品在主流大模型的搜索与推荐中获得更靠前的呈现,甚至把广告包装成用户询问时的“标准答案”。有从业者直言,算法更新频繁,若要维持推荐效果,需要持续大量投放与客户对应的的内容,以便被模型抓取引用。更值得警惕的是,测试中通过虚构产品信息生成宣传稿并发布后,确有大模型在相关提问中给出推荐,且排名靠前,显示出被误导的可能。 原因——内容供给链条“可规模化”,叠加流量焦虑与监管空白。 一是商业竞争推动“捷径思维”。在传统搜索和电商平台流量成本高企背景下,一些商家将大模型视为新的“流量入口”,试图以较低成本换取曝光。二是大模型基于海量文本学习与引用,天然依赖公开信息环境,若网络空间充斥结构化、重复度高、指向性强的“伪内容”,就可能被模型当作“证据”吸收。三是“发稿”业务与自动化生成工具结合,降低了造假门槛、扩大了传播效率,形成从内容生成、批量分发到效果监测的链条化运作。四是标识与追溯机制不足,软文广告、虚构信息与真实测评混杂,给治理与取证带来难度。 影响——侵蚀信息可信度,放大消费风险并冲击公平竞争。 对消费者而言,若模型输出被商业信息“绑架”,用户可能在不知情的情况下被引导购买虚构或夸大功效的产品,带来财产损失与安全隐患。对市场秩序而言,“谁投喂得多谁就更显眼”的逻辑,会挤压诚信企业的正常竞争空间,诱发劣币驱逐良币。对技术生态而言,投毒行为会污染模型引用来源,削弱问答系统的公共服务属性,长期将损害平台公信力与行业可持续发展。更深层的风险在于,一旦此类手法扩展至医疗、金融、公共安全等领域,误导性信息可能造成更大社会成本。 对策——以“全链条治理”提升大模型内容安全与广告合规水平。 平台端要把住入口关、引用关与呈现关:完善反投毒与反操控策略,对异常聚合的同质化稿源、批量账号矩阵和可疑外链进行识别拦截;在答案呈现中强化“来源可见”,对可能含商业推广的内容设置显著提示,降低“广告即答案”的误导空间;建立高风险行业知识库与权威信源白名单,提升事实核验能力。 监管端应推动规则更细化:明确以影响模型输出为目的的隐蔽营销边界,压实广告标识义务与虚假宣传责任;针对“发稿平台—内容生产—分发账号—效果承诺”的链条开展综合治理,形成跨平台协同处置与证据共享机制;对提供“操控推荐、投喂投毒”服务的机构依法依规从严查处。 行业端需强化自律与合规:内容营销应回归真实可验证的产品信息与用户体验,建立企业内部审核与可追溯台账;技术服务商应明确服务红线,不以误导公众为代价换取商业收益。公众端也应提升辨识能力,对“唯一推荐”“绝对疗效”等话术保持警惕,遇到疑似虚假信息及时投诉举报。 前景——治理与技术“赛跑”将长期存在,关键在于建立可持续的信任机制。 随着大模型加速进入搜索、客服、导购等场景,其输出正在成为新的信息基础设施。未来一段时期,围绕模型注意力与推荐位的竞争仍会加剧,治理需要从“事后处置”走向“事前预防”,从单点封禁走向链条打击。通过提高内容来源透明度、完善广告标识制度、强化模型安全评估与第三方审计,才能在创新应用与风险防控之间形成更稳固的平衡。
当技术应用与商业利益在灰色地带相遇,此现象提醒我们:数字文明的发展不仅需要技术进步,更需要完善的制度保障。如何在激发创新活力的同时守住伦理底线,是数字化时代必须面对的课题。此次事件或将成为推动算法治理规范化的重要契机。