“GEO”灰色营销渗入大模型搜索生态:虚假内容“投喂”或误导公众决策

问题——“标准答案”被商业投放左右风险显现 随着人工智能大模型被广泛用于搜索、导购与咨询,其回答常被用户当作更可信的结论。然而调查发现,一些服务商围绕所谓“GEO”业务对外宣称:通过内容铺量、定向投放等方式,可让客户产品多家主流大模型的推荐中靠前出现,甚至把广告包装成模型输出的“默认结论”。为验证其影响路径,业内人士现场演示:购买涉及的软件后,输入虚构商品信息,系统可自动生成多篇推广文章并批量发布到自媒体账号;随后在大模型中提问,模型引用了刚发布的内容并复述其中夸张表述,显示出其对“新近内容”“多点分发”的敏感性,以及在现实中被干扰的可能。 原因——内容供给失真与算法依赖叠加形成可乘之机 一是大模型获取信息高度依赖公开网络内容,部分模型或其检索组件会将可抓取网页作为参考来源。在信息源质量参差不齐的情况下,重复分发、集中发布、关键词堆叠等做法更容易提高被检索与被引用的概率。二是商业利益驱动下,“内容工厂”式生产加剧。相关软件将写作、配图、发布流程自动化,显著降低造假成本,使“编造—扩散—被引用”的链条更短、更隐蔽。三是平台与模型在来源可信度评估、商业推广识别、证据链校验上仍有短板。部分内容未明确标注为广告或缺少权威出处,模型生成时难以及时分辨“软性推广”与“事实信息”的边界。四是算法迭代频繁也被一些机构当作“持续投喂”的理由,通过密集更新维持曝光,客观上增加信息噪声。 影响——从消费误导扩展到市场秩序与公共风险 对消费者而言,“看似中立”的回答一旦被植入广告倾向,可能影响购买决策,尤其保健、金融、教育等领域,夸大宣传与虚构背书更易造成权益受损。对市场而言,刷榜式操作扰乱公平竞争,使合规经营者在流量与声誉上受到挤压,助长“劣币驱逐良币”。对信息生态而言,虚假内容被模型反复引用,可能形成“自我强化”的传播回路,污染训练与检索语料,削弱社会对相关服务的信任。更需警惕的是,一旦类似手段进入涉政、涉灾、涉公共安全等场景,错误信息扩散的社会成本将更高。 对策——压实平台责任,完善技术校验,强化依法治理 业内人士建议,治理应从源头、过程与结果三端发力。其一,内容平台与账号体系要加强异常发布识别,对短期集中产出、跨平台同质分发、疑似营销矩阵等行为及时限流、处置,提高违规成本。其二,大模型与相关应用应完善可信来源机制:提高权威信源权重,建立可追溯的引用标注与证据链展示;对商业推广内容强化识别并作出显著提示,避免“广告伪装成结论”。其三,推动技术防护升级,包括对内容重复度、语义模板化、异常链接网络进行检测,引入水印、溯源标记等手段,压缩批量造假与无痕传播空间。其四,依法打击虚假宣传与不正当竞争行为,围绕网络广告、数据安全、算法治理等要求开展执法协同,形成“发现—取证—处置—追责”闭环。企业端也应守住合规底线,将品牌传播从“投喂式操控”转向产品质量与真实口碑。 前景——以可信数据与透明机制重建大模型“可用、可信” 受访业内人士认为,大模型在提升信息获取效率上潜力巨大,但“可信”是其进入更多公共服务与商业场景的前提。未来一段时期,行业将加速从“拼内容数量”转向“拼来源质量”,以权威知识库、可核验引用、透明标注规则为基础,提升对虚假与营销内容的识别与抵抗能力。同时,随着标准体系完善和治理经验积累,大模型服务将更强调责任边界与风险提示,推动形成多方共治的生态。

技术应为社会发展提供助力,而不应成为少数人牟利的工具;面对智能推荐领域的新挑战,需要共同筑牢技术伦理、行业规范与法律监管的多重防线,才能让技术创新更可靠地服务公众需求,并为数字经济高质量发展提供支撑。