你有没有注意到最近跟AI聊天时,有时候它推荐的东西不太靠谱?特别是在购物建议这块儿,你可能会发现推荐的品牌里夹杂着明显的商业意图,点进去一看全是营销软文,甚至还有些品牌有不良记录。这事儿其实挺让人担心的,咱们得警惕这种隐性商业推广。北京理工大学智能科技法律研究中心的王磊研究员就把这个问题讲得挺透。 记者调研发现,用户遇到的这种算法偏差,其实是一种新兴的营销策略在搞鬼。商家为了让自家产品更显眼,开始针对性地“投喂”数据给AI。现在主要有两种手段,一种是通过设计特定的提示词来诱导AI生成包含目标品牌的回答,另一种则是更隐蔽的GEO(生成式引擎优化)模式。 商家通过分析不同AI工具的抓取偏好,在相关平台批量发布经过优化的内容。这些内容包装成“亲测”、“测评”或者“攻略”,实际上就是在做商业推广。有些GEO服务商还明确表示,能通过付费服务帮客户把产品“推到人工智能推荐前列”。 王磊分析认为,GEO模式的核心风险在于它太隐蔽了。它把原本该被标识的广告信息,深深嵌入了AI输出的“客观建议”里。这样一来,消费者就没法判断信息的性质和可信度了,这就侵犯了知情权和选择权。而且为了提高效果,商家还可能搞虚假互动数据或者操控评价。 传统的监管模式主要盯着发布后的内容审核和处罚,属于“末端治理”。但GEO发生在数据投喂和算法训练的上游环节,跨平台、动态化而且特别迷惑人。所以得革新监管思维,构建全流程的治理体系。 具体来说,监管需要往前延伸关注训练数据的纯净度;往中间深入去识别和披露内容中的商业信息;往后巩固查处各种隐蔽推广行为。 生成式AI虽然带来了很多好处,但它的公正性和可靠性才是赢得信任的基础。当商业力量开始系统性地利用算法的可引导性时,怎么保证它不沦为隐性营销的渠道就成了大问题。这不仅需要技术方提高模型透明度和抗干扰能力,也需要监管与时俱进出台前瞻性的立法。 只有划清了技术应用与商业推广的边界,守护了清朗的数字环境和公平的竞争秩序,AI才能真正服务于民,助力社会经济的健康发展。