AI生成内容须明确标识 规范治理维护网络生态清朗

随着数字技术快速发展,人工智能合成内容在网络空间呈现爆发式增长。

据国家网信办监测数据显示,2023年涉及未标识合成内容的网络投诉量同比激增217%,其中部分案例已构成虚假信息传播。

2月中旬,国家网信办公布的典型案例显示,某平台账号利用深度伪造技术制作虚假企业家演讲视频,单条播放量超500万次,造成恶劣社会影响。

究其原因,技术门槛降低与监管滞后形成明显落差。

当前主流合成工具操作已实现"一键生成",但配套的内容审核体系尚未同步升级。

中国传媒大学网络法治研究中心指出,约76%的平台用户难以辨别经技术处理的合成内容,这种信息不对称极易被恶意利用。

更值得警惕的是,部分灰色产业链已形成"生成—去标识—传播"的闭环操作,某电商平台查处的去标识软件月销量最高达2300余次。

这种乱象正在产生多重负面影响。

其一,破坏网络信息公信力。

北京师范大学新媒体研究中心抽样调查发现,接触过未标识虚假内容的网民中,43%表示将降低对网络信息的整体信任度。

其二,扰乱市场秩序。

某MCN机构利用未标识的合成内容进行商品推广,导致消费者投诉量激增300%。

其三,威胁社会价值观。

近期曝光的"动画角色不良引导"事件,暴露出技术滥用对青少年群体的潜在危害。

针对这些问题,监管部门已采取系统性治理措施。

《人工智能生成合成内容标识办法》明确要求,所有合成内容必须标注技术来源及应用范围。

主要平台响应迅速,小红书等企业已升级审核系统,新增11项合成内容识别维度。

中国互联网协会副秘书长表示,下一步将建立"技术识别+人工复核+用户举报"的三重防控机制,预计2024年底前实现主要平台全覆盖。

从国际视野看,我国治理实践具有前瞻意义。

欧盟《数字服务法》虽对合成内容提出披露要求,但具体执行标准尚在制定中。

而我国推行的"分级分类"管理模式,已为全球数字治理提供新范式。

专家预测,随着区块链等溯源技术的应用,未来合成内容管理将实现从"被动标注"到"主动验证"的跨越式发展。

信息社会的信任从来不是自然而然的产物,而是规则、责任与自律共同构筑的公共基础。

让生成合成内容“亮明身份”,既是对受众知情权的尊重,也是对创作者公平竞争的保护,更是对网络空间长期治理的一次加固。

技术向前的脚步不会停下,只有把透明写在规则里、把责任落在行动上,才能让创新与秩序同向而行,让清朗与活力相得益彰。