网信部门严厉打击未标识AI生成内容 依法处置违规账号超万个

随着数字技术加速演进,网络信息传播更加多元,但也有不法分子借助技术批量生产虚假内容,并刻意规避有关标识与监管要求,冲击社会秩序与公序良俗。网信部门此次通报的三类典型案例中,既有编造动物参与救援的猎奇情节,也有利用深度伪造技术假冒名人发声,还包括恶意炒作灾害事件等行为。这些内容常以“正能量”“突发新闻”为包装,实则与事实不符,折射出部分领域“流量优先、利益驱动”的顽疾。 分析认为,乱象滋生主要来自三方面:一是部分平台审核机制存短板,对AI生成内容的识别能力不足;二是违规成本偏低,黑灰产团伙通过批量注册账号进行“游击式”运营;三是部分网民甄别意识不强,在客观上助推虚假信息扩散。第三方监测数据显示,未标注技术来源的合成信息传播效率比普通内容高出47%,更容易形成误导性裂变。 这种无序传播已带来多重危害。从社会层面看,虚构灾难画面可能引发恐慌,伪造名人言论也容易影响投资与消费判断;从互联网生态看,劣质内容挤压优质内容空间,损害整体信息环境。某高校传播研究院2023年度报告指出,虚假信息造成的信任损耗,使38.2%的网民对网络新闻持怀疑态度。 针对此问题,监管部门采取多项举措:一上要求平台压实主体责任、完善技术识别与审核系统;另一方面推动建立“生成内容溯源标注”行业标准。本次专项行动强调“标本兼治”,既清理存量违规内容,也通过公开典型案例形成震慑。法律专家指出,新修订的《互联网信息服务算法推荐管理规定》已明确要求,对深度伪造内容采取显著标识措施,违规者最高可处100万元罚款。 展望未来,随着《网络暴力信息治理规定》等新规落地,并结合区块链存证、数字水印等技术应用,我国网络空间治理正向“更精准、更长效”转变。但要从根本上遏制乱象,仍需多方协同:既要加固平台技术与管理防线,也要提升公众媒介素养,共同维护清朗的数字生态。

信息传播越快,真实性与责任越需要被放在更重要的位置;对未作标识的生成、合成虚假信息依法从严治理——既是对网络乱象的及时纠偏——也是对公共信任的有效维护。持续压实各方责任、明确规则边界、提升公众媒介素养,才能让技术进步更好服务社会,让网络空间更清朗、更可信。