这就是咱们今年3·15晚会上曝出的一件新事儿——有人把AI给“投毒”了。其实说到底就是,利用生成式引擎优化(GEO)技术搞破坏,通过批量制造虚假信息、系统性地给AI大模型“投喂”垃圾数据,硬是把那些虚无缥缈的假产品变成了AI推荐的所谓“优品”。回想当年搜索引擎红火的年代,广告推荐那些套路,现在看来跟现在的问题是不是挺像的?不过技术越来越先进,背后的逻辑也变得复杂了。平台以前主要靠收流量费来赚钱,现在倒好,GEO服务商把这个过程给彻底黑化了,甚至连开发AI大模型的人都能被他们绕过。 信息这种东西本来就很金贵,贩卖信息的路子也越来越多。媒体报道说,这类GEO技术已经形成了一条完整的产业链。在这个商业模式下,服务商是明码标价的。你出个几千块到几万块钱一季的价码,就能让特定品牌的名字出现在AI回答的最前面。话说回来技术本身是个中性的玩意儿,但现在问题的关键就在于AI大模型的机制本身有点脆弱。很多大模型在联网的时候都是靠第三方平台来提供信息摘要的,根本没有去深度理解原文到底是真是假。 商业利益这股风吹起来了之后,GEO服务商就特别喜欢去检索那些结构化、完整化的内容。他们通过批量生产那种特别符合AI抓取习惯的内容,把特定品牌给推到了更容易被采纳的位置上去。这一来不光是污染了单个信息源,还可能让AI通过反复引用把这种虚假信息给强化了,形成一种很难清除的“数字污染”。这种假信息比那些夸张的广告营销手段还要难分辨。 现在的AI技术发展得太快了,咱们老一套的监管思路肯定得赶紧跟着变一变才行。以前搜索优化的手段好歹还有点痕迹可循,现在的AI黑箱特性让问题变得更隐蔽复杂了。这就意味着治理的手段也得跟上技术飞跃的速度才行。对于做平台的来说,得在检索、排序还有结果呈现这些环节上建立更严格的广告识别机制和信息过滤系统。那些疑似商业推广的内容得标清楚了,源头上的质量审核也得加强才行。 大模型最好还是从好几个独立可信的信源那儿去获取信息,千万别让一个信源的偏见给左右了生成结果。这就要求开发者得多花点资源去清洗数据、标注内容,建一个更稳健的审核体系。数字资产怎么用现在已经是个不能再拖了的大问题了。就像GEO行业的专家汤祚飞说的那样,真正的GEO业务逻辑跟“数据投毒”是完全两码事。合规的GEO应该是给AI提供科学真实有价值的信息。 在这个意义上加强监管并不是为了不让新生事物成长,反而是要给它们一个更健康可持续的环境。毕竟林子璐也说了这么一句话:加强落实对GEO的监管,是为了让人工智能真正回归到可信可靠的工具本质上去。你说你花3600元就想让自家品牌挤进AI回答的前列?这事儿到底能不能成?反正就看监管能不能跟上趟儿了。