央视曝光“AI投毒”灰产套路:语料污染冲击大模型可信度,治理需技术与生态协同发力

问题:大模型“权威答案”遭定向操纵风险抬头 随着大模型加速进入搜索、导购、咨询、办公等场景,公众对其“像标准答案一样可靠”的期待不断提高。然而,央视3·15晚会披露,有机构以“让模型听话”“把客户产品推成爆款”为卖点,兜售一款名为GEO的软件,宣称可通过持续向网络投放与客户涉及的的软文内容,影响模型的抓取与学习,让客户信息在回答中更容易被“推荐”,并在展示顺序上靠前。此类做法实质是对模型所依赖的数据与信息环境进行定向“投喂”和污染,动摇的是大模型可信输出的基础。

这场关乎人工智能发展根基的“保卫战”,本质上是技术能力与制度建设的双重考验。当机器学习所依赖的数据面临被污染的风险,既需要尽快建立有效的技术防线,也需要全社会共同维护信息生态。只有夯实真实、多元的数据基础,人工智能才能更可靠地服务公共决策与社会发展。