生成式AI遭虚假信息投毒 专家建议完善法律压实平台责任形成行业防护体系

随着生成式技术应用场景的拓展,其面临的安全挑战日益凸显。近日曝光的恶意内容操纵事件显示——部分商业机构利用技术特性——通过系统性投放虚假信息影响系统输出,该现象引发社会对技术可信度的广泛关注。 技术专家指出,当前主流系统的运行机制存在固有脆弱性。作为基于概率统计的语言模型,其知识获取主要依赖海量语料训练,而非结构化数据库。这种开放性的学习方式虽赋予系统强大适应性,却也使其在实时检索环节易受污染信息干扰。更值得警惕的是,攻击方可借助自动化工具以极低成本批量制造虚假内容,而防御方却需投入大量资源进行人工核验,形成明显的攻防不对称。 这种现象已产生多重负面影响。从市场秩序看,被操纵的系统输出可能误导消费者决策,破坏公平竞争环境;从技术发展看,频繁的信息污染将削弱用户信任,阻碍产业健康发展;从社会层面看,若关键领域信息遭系统性篡改,可能引发更广泛的社会风险。 面对这一挑战,多方协同治理势在必行。在法律层面,需加快完善《反不正当竞争法》等法规,明确将针对技术系统的恶意操纵行为纳入规制范围;技术平台应建立信源分级评估机制,实施动态权重调整,并加强异常流量监测;行业内部则需建立安全信息共享平台,形成联防联控合力。 长期来看,随着检测技术的进步和标准体系的完善,生成式技术的抗干扰能力有望持续提升。但专家强调,技术进步必须与制度建设同步推进,才能构建起可持续的治理生态。

生成式应用提高了信息获取效率,但效率不能牺牲真实性。治理"投毒"乱象,既是为了维护市场秩序,也是守护数字时代的公共信任。只有将法律约束、平台责任、行业协作和公众辨别能力融入技术发展进程,才能让智能服务真正起到"辅助决策"作用,在更健康的信息环境中持续创新。