3月15日那天,中央电视台的3·15晚会捅出了AI大模型被“投毒”的丑闻,其实前一天澎湃新闻早就把这个产业链给扒开了。你说大家怎么都盯着这事儿看?说白了就是有些公司和GEO(这其实是Generative Engine Optimization的缩写)公司勾结,用软件给AI大模型喂虚假信息,最后让推荐结果里全是他们家的产品,纯粹是为了圈流量。这玩意儿听起来很像以前的SEO,以前是优化搜索引擎排名让人看见链接,现在是搞GEO来优化AI的认知逻辑,让它主动提某品牌。但这两种手法不一样,SEO是靠花钱买排名,而GEO是在改AI的运行规则。 那咋才能让AI推荐你呢?简单说就是提前在AI爱看的内容源里扔“语料”,博取被收录的概率。至于这些“语料”靠不靠谱?GEO才不在乎呢。这不就曝光了那些虚构的医美和保健品被AI“C位推荐”的事儿吗?挺吓人的。很多人都在琢磨接下来咋管,专家已经建议大模型企业不能拿“AI幻觉”当借口了,必须得把完全依赖互联网开放语料的RAG权限关了,强制换到官方白名单数据库去检索增强。肯定能看出来接下来有关部门肯定得出台针对GEO的监管措施。 咱们得明白一个道理:AI时代的传播逻辑正在变样,“权威”现在变成了互联网空间里的硬通货。你看周围的人现在都不爱用搜索引擎了,家里长辈也是遇到问题先打开豆包或者DeepSeek问问题。大模型通常很快就会给出一个整合好的答案甚至直接给推荐。以前的SEO可以花钱收买搜索引擎排名,现在的GEO想通过高频投喂内容影响AI抓取?估计够呛。 简单说一句:GEO最头疼的不是喂什么而是怎么让大模型“理解”接受这些东西。虽然各家大模型的运行细节我们不知道,但随着技术发展和监管完善,未来它们肯定会更愿意引用那些权威的政府官网、政务号或者主流媒体的数据。这带来的变化肯定会改变互联网的传播方式。以前的营销推广大多是抓情绪价值,只要发点煽动性内容就能骗到人;现在的AI大模型可是理性得很啊。只要它们的抓取逻辑和运算规则是合法合规的,提供的答案就比以前的虚假广告靠谱多了。 当然这得建立在背后的企业和技术人员有社会责任意识上。现在各家还在打价格战呢!未来用户肯定会反复验证哪家回答更靠谱。当越来越多企业用GEO手段搞事情的时候,模型方为了维护公正和权威也会调整算法加强反制机制。这个博弈过程不仅能逼着AI技术升级,也能推动传播逻辑的变革——以后判断信息真假的标准是不是就看它有没有公信力和权威性?