央视3·15曝光信息污染乱象 专家警示AI时代虚假内容治理迫在眉睫

随着人工智能技术的广泛应用,一个新的信息污染现象正在浮出水面。

央视3·15晚会近期曝光了AI大模型遭受恶意"投毒"的乱象,其中涉及的生成式引擎优化技术引发广泛关注。

这一现象的出现,标志着互联网信息生态治理进入了新的阶段。

生成式引擎优化,简称GEO,是指针对生成式AI系统的优化技术。

与传统搜索引擎优化不同,GEO的滥用呈现出更高的工业化程度。

一些企业为了获取流量和销售机会,专门组织人力批量生产虚假、低质的内容,将广告伪装成产品测评、消费榜单、使用经验分享等形式,分散投放到各类平台。

这些内容的目的是让AI在抓取信息时更容易采信,进而在用户查询时被推荐给消费者。

这种现象的根本原因在于技术形态的变化与商业逐利目的的结合。

在搜索引擎时代,用户面对的是多个链接列表,可以自主比对和判断。

而在AI时代,用户获得的是一个经过AI处理的综合答案,判断过程被大幅简化。

这种信息呈现方式的改变,使得控制AI答案的价值大幅提升,从而激发了企业的优化动力。

正如研究人员所指出的,技术在演进,但其中的人性和逐利目的并未改变,这正是各类乱象频繁出现的深层原因。

GEO滥用的影响范围正在扩大。

医疗、教育、投资理财等涉及重大决策的行业,以及数码产品、汽车、旅游等消费领域,都成为了GEO技术滥用的重灾区。

这些行业的共同特点是用户决策敏感度高,一旦AI答案被污染,就可能直接影响消费者的选择。

与互联网时代的垃圾信息相比,AI时代的信息污染具有规模更大、成本更低、识别更难的特点。

真正有价值的信息被淹没在批量化生产的低质内容中,AI系统本身也因此难以获取高质量的信息源,最终受害的是依赖AI获取信息的普通用户。

信息污染的复杂性还在于其隐蔽性。

用户越来越难以判断AI生成的内容是否真实存在,真相不再是一个明确的点,而是一个模糊的面。

这种变化对信息接收者的辨别能力提出了前所未有的挑战。

每一个用户都需要具备更强的信息素养和批判性思维,才能在污染的信息环境中找到真实。

应对这一问题需要多方面的努力。

一方面,AI企业需要加强对训练数据的质量把控,建立更有效的虚假信息识别机制。

另一方面,监管部门应当加强对GEO滥用行为的规范和约束,明确企业的法律责任。

同时,提升全社会的信息素养教育也是长期之计,帮助用户学会在AI时代辨别信息真伪。

信息入口越便捷,越需要可信机制护航。

治理大模型“投毒”与生成式引擎优化滥用,不只是一次针对营销乱象的整治,更是对数字时代公共信息环境的系统修复。

唯有以法治划清边界、以技术筑牢防线、以素养增强免疫,才能让“更快得到答案”不以牺牲真实性为代价,让创新更好服务于公众利益与高质量发展。