问题—— 搜索、购物、出行等场景中,基于大模型的内容检索与推荐逐渐成为公众获取信息的重要渠道;然而,3·15晚会披露,一种打着“优化推荐结果”旗号的业务正在形成灰色链条:服务商宣称只要支付费用,便可通过系统化“内容投喂”让对应的产品在多个主流模型的推荐答案中名列前茅,甚至被包装成“权威结论”。更值得警惕的是,有的案例中,被推荐的产品信息本身系虚构编造,却仍在短时间内被模型引用扩散,误导公众判断。 原因—— 从技术路径看,相关服务并非传统意义上的网页搜索优化,而是围绕大模型的训练语料与抓取机制做文章:一上,利用软件批量生成看似“测评”“科普”“体验”的推广文章;另一方面,通过发稿平台在短时间内向互联网密集投放,制造“多源一致”的信息假象,使模型在检索、生成答案时更容易引用这些内容。由于大模型对海量公开信息存在依赖,在缺少严格来源校验与广告识别的情况下,虚假内容便可能借机进入模型可见范围并被反复引用。 从利益结构看,这类业务背后已形成相对完整的分工链条:有的机构提供自动化生成与投放工具,有的公司专门承接发布任务,部分平台以“按篇计费”模式吸引客户,降低了造假成本、提高了扩散效率。更有从业者坦言,为对抗模型与平台规则的动态调整,需要持续高频“喂料”,甚至通过抹黑竞品、制造负面叙事来干扰推荐结果,带来更强的市场破坏性。 影响—— 其一,侵蚀信息可信度。推荐答案一旦被包装成“客观结论”,将显著降低公众的警惕性,造成“看似中立、实则营销”的认知陷阱,进而损害平台与技术应用的公信力。 其二,扰乱市场秩序。通过技术手段拉升自身曝光、压制竞争对手,实质上改变了公平竞争的市场环境,使守法经营者在流量与口碑上处于不利地位,劣币驱逐良币风险上升。 其三,放大消费与安全风险。虚构或夸大宣传的商品被“推荐”后,可能诱发冲动消费与错误决策;若涉及医疗健康、金融投资、教育培训等敏感领域,还可能引发更严重的财产损失与社会风险。 其四,带来合规隐患。法律界人士指出,将商业推广伪装为中立信息、隐瞒广告属性,可能触及广告管理相关规定;若内容存在虚假或误导性表述,可能构成虚假宣传;通过编造、散布信息损害竞争对手商业信誉,亦涉嫌不正当竞争。最终受损的,是消费者知情权与公平交易权。 对策—— 治理此类问题,需要“源头管控、平台把关、依法惩处、社会共治”多向发力。 一是强化内容来源标识与广告披露。对带有商业目的的内容,应明确标注推广属性,建立更严格的广告识别与披露机制,压缩“软文化、测评化”营销的生存空间。 二是提升模型侧的可信引用能力。平台与技术提供方可在检索与生成环节加强来源权重评估,对低质量站点、异常发布频率、同质化内容集群设置风控阈值;推动引用链路可追溯,向用户展示关键信息出处与证据等级,减少“无来源结论”。 三是对批量造假链条实施联合打击。对提供自动生成虚假推广、组织批量发稿、收取费用操纵推荐的机构,依法依规开展查处,形成可感知的执法威慑;对涉嫌侵权、造谣抹黑等行为,畅通维权通道,提高违法成本。 四是引导公众建立“二次核验”习惯。面对各类榜单与推荐答案,消费者应优先核对信息是否来自权威机构、正规平台与真实评价体系,对“短期爆红”“全网同稿”“来源不明”的结论保持谨慎,必要时通过多平台交叉验证。 前景—— 大模型应用正在加速进入公共服务与商业服务场景,推荐与问答将越来越像“数字基础设施”。越是基础设施,越需要制度化的安全与诚信保障。下一步,应加快完善生成内容标识、数据治理与平台责任边界等配套规则,推动行业形成可执行的技术标准与审核规范;同时,在鼓励技术创新与应用便利的前提下,把“可信、可溯、可核验”作为底线要求,让技术进步真正服务于消费者权益保护与市场公平竞争。
AI推荐系统本应提升信息获取效率,但被不法利用后反而成为欺骗工具。这次曝光不仅揭露了黑色产业链,更凸显了AI时代辨别信息真伪的重要性。技术是中立的,关键在使用方式。消费者需要理性甄别信息——企业要坚守底线——监管部门须加强约束。只有多方合力,才能让AI真正服务消费者,而非成为欺诈手段。