生成式人工智能搜索这块其实藏着很大的风险

把我们聊到2025年了吧?生成式人工智能搜索这块其实藏着很大的风险,大家得小心点。以前咱们问旅游攻略、买东西,或者是专业意见,都习惯信它,觉得是机器基于海量数据训练出来的客观回答。可是现在有个新兴的商业模式叫“生成式引擎优化”,也就是GEO,专门用技术手段给AIGC工具塞广告或推广信息,通常都不带标注的。 跟以前传统的SEO不太一样,以前是要把网站推到搜索排名前面,现在GEO直接盯着大语言模型的内容生成机制来操作。我有个朋友是干这个的,他给我看了个“成功案例”,说是某个品牌在新媒体、典当这些领域的信息混进了主流平台的问答结果里。他们机构还提供各种服务套餐,年费几千到两万不等,说价格越高算力越强,植入效果就越好。 这一行的人偷偷告诉我,他们现在常用的手法就是大规模、有组织地往网络资讯平台和自媒体上发“软文”。这些内容设计得特别像客观评测或者行业分析,实际上是为了推东西。因为大语言模型是抓取公开互联网信息来训练的,这些海量的“软文”就被模型当成信源引用了,最后变成看似中立的建议或答案给用户看。 这其实就是在给人工智能搞数据污染。你看那些搜索结果下面经常会有引用来源的小角标吧?一般人都懒得点开一个个去核实。广告代理机构就是利用了这点,专门研究不同模型的资料索引偏好,定向地大批量投内容,好让自己的目标信息被模型抓取的概率变大。 更吓人的是有些操纵行为已经不只是软文投放这么简单了,都升级成系统性的信息造假了。比如说有个科技自媒体搞了个实验,在好几个平台同时发了一篇高度同质化的“媒体盘点”文章。过了几个小时,好几个主流人工智能平台在回答相关领域问题时都把这篇文章引进去了。实验者说这就像给AI喂了一堆看似可信的重复资料,很容易干扰它的判断。 调查还发现有些商家为了增加说服力,会编造虚假的“权威研究报告”,或者自己虚构专家身份来进行所谓的科普导流。我之前查“生成式引擎优化服务商”的时候,某平台给我推了一份“2025年研究简报”,说是什么国内某权威机构发的。我后来一查根本没这回事儿,是广告代理机构编的。 这种行为带来的伤害挺大的。对普通用户来说,本来能相信的信息现在变得不真实中立了,买东西甚至看病做决策都可能被误导。对人工智能行业来说训练数据被恶意污染了以后,模型的可靠性和输出质量都会下降。长远看这会损害整个行业的技术公信力和发展根基。对网络环境来说也是劣质虚假内容更多了。 所以我们得想想办法啊。既然GEO现象已经出现了,就说明监管和伦理规范这块儿确实滞后了。我们得赶紧建立适应新时代的治理框架才行。这需要开发者优化模型识别过滤机制少用那些低质偏见数据;需要平台方负起责任来搞清楚生成内容里有没有商业信息;更需要监管机构、行业组织还有社会各界一起推动立法和标准建设。 咱们得守住这个清朗可信的环境啊!