调查显示生成式搜索暗藏“软文”植入:付费优化、假报告假专家扰乱公众决策

问题显现:搜索结果背后的商业博弈 广州市民张女士的经历并非个案。她根据智能工具的推荐购买一台高端咖啡机后发现,产品性能与描述明显不符。记者调查发现,这类情况与一种新的广告植入方式有关——生成式引擎优化(GEO)。与传统搜索引擎优化不同,GEO会研究大模型对网络信息的抓取与引用规律——有针对性地投放营销内容——让商业信息以“自然结果”的形式出现。某服务商报价单显示,年费1.6万元的高端套餐承诺提供“优先算力支持”,折射出该领域已形成较为完整的商业链条。 深层诱因:技术红利下的监管滞后 业内分析认为,乱象主要来自三方面矛盾:第一,智能系统依赖公开网络数据,为商业操控提供了入口;第二,平台对内容标注规则尚未统一,导致广告内容混入正常结果、难以识别;第三,现行《互联网广告管理办法》对生成式AI场景下的广告属性界定仍不清晰。某科技公司技术总监透露,部分机构每天投放数百篇“伪权威”文章,通过制造“数据回声”提高被抓取概率,本质上是污染公共数据环境。 多维影响:从消费决策到信息生态 隐蔽营销正在引发连锁影响。消费者权益上,中国消费者协会2023年数据显示,因智能工具推荐引发的投诉量同比增长240%。更值得警惕的是,虚假学术报告、虚构专家背书等做法不断出现,正在削弱社会信任基础。某高校传播学教授指出:“当人工智能系统频繁输出被污染的数据结论,其作为信息中介的公信力将面临系统性风险。” 破局之道:构建协同治理新机制 面对挑战,各方开始寻找更可行的治理路径。北京市互联网法院近期受理的首例GEO不正当竞争案,为司法实践提供了新样本。技术层面,头部平台已试点“溯源标注系统”,用户可一键查询结果的数据来源与引用路径。中国人工智能产业发展联盟秘书长建议,建立“算法备案+内容审计”双轨机制,要求运营方定期提交数据训练集合规报告。 发展前瞻:技术创新与伦理建设并重 多位业内专家认为,随着《生成式人工智能服务管理暂行办法》实施细则逐步落地,行业有望进入更规范的发展阶段。从长期看,仍需形成覆盖技术标准、法律约束与行业自律的立体治理体系。国家工业信息安全发展研究中心报告预测,2025年前后有望形成成熟的AI内容标识国家标准,为创新划定更清晰的安全边界。

生成式人工智能本应帮助人们获取知识、辅助决策,但一旦商业利益侵蚀其相对中立性,就可能被利用为误导工具。“数据污染”的出现,既检验AI技术能力,也提醒信息社会必须正视新的风险。技术进步与信息安全并不矛盾,关键在于在发展中同步补齐规则与防护。只有把技术创新、制度约束和社会共识结合起来,才能让AI搜索成为可信的信息来源,而不是被商业操纵的渠道。这既关系行业的健康发展,也关乎用户权益的切实保护。