网信部门整治AI生成内容乱象 处置1.3万违规账号

近期,个别网络账号发布合成图片、视频和音频时有意淡化来源提示、规避标识要求,借“感人救援”“惊险奇观”“突发灾情”等内容制造强烈情绪冲击;甚至通过换脸、声音克隆等手段冒充运动员、演员、主持人、企业家等公众人物发布不实言论,引流吸粉,或在未经授权的情况下售卖“祝福”“拜年”等定制视频牟取不当利益。上述行为误导公众认知,削弱网络诚信基础,扰乱公共秩序,破坏传播生态。对此,网信部门督促平台开展排查整治,依法依约处置账号13421个,清理违法违规信息54.3万余条,并对典型问题予以通报。 一是“问题”呈现多样化、链条化特征。从通报案例看,有的账号传播虚构内容不作合成标识,包装“狗在高铁站救下婴儿”“拆弹救人”等情节,以编造的善意叙事或猎奇事件收割关注;有的通过换脸、声音克隆等方式“借名发声”,以公众人物名义发布所谓“观点”“回应”,借此抬高可信度、扩大传播;还有的围绕火灾等突发事件拼贴合成画面,炮制“现场”,制造恐慌与信息噪音。这些内容表面是“视频段子”“热点剪辑”,实质是利用合成技术降低造假成本、提高传播效率的系统化流量操作。 二是“原因”由多重因素叠加形成。其一,合成技术门槛降低,制作更便宜、更新更快,易被少数人用于投机造假。其二,部分账号受流量利益驱动,以情绪化、冲突性、灾难性内容博取关注,形成“造假—扩散—变现”的路径。其三,个别平台与账号对合成标识、版权授权、实名规范等要求执行不严,抱有“擦边”侥幸。其四,在快节奏信息环境下,公众易受视觉冲击与名人效应影响而转发,客观上放大了虚假内容的传播。 三是“影响”不容忽视。一上,虚构救援与猎奇叙事透支社会信任,可能诱导公众公共议题上作出错误判断;冒充公众人物发布不实言论,不仅侵害个人名誉与合法权益,也可能误导市场预期、扰动舆论秩序;围绕火灾等事故的虚假信息更易引发恐慌,干扰应急处置与社会治理。另一上,合成信息不标识会模糊真实与虚构的边界,长期将抬高信息核验成本,削弱网络空间的公信力。 四是“对策”应坚持依法治理与协同治理并重。监管层面,要持续强化对合成信息标识、谣言治理、侵权牟利等问题的执法力度,推动重点领域、重点环节形成可追溯、可问责的闭环。平台层面,应完善合成内容识别与显著标识机制,健全“发现—处置—复核—申诉”流程,加强对热点事件及名人对应的内容的审核校验;对利用换脸克隆实施诈骗、侵权、牟利的账号及黑产链条,加大打击力度并强化联合惩戒。账号主体层面,应强化合规与边界意识,严格遵守平台规则和相关管理要求,杜绝以“娱乐化”“二创”为名规避责任。社会层面,要提升公众媒介素养与辨识能力,形成不造谣、不信谣、不传谣的共识。 五是“前景”方面,随着合成技术加速渗透,治理重点将从“事后处置”更多转向“源头规范”和“过程管理”。一方面,合成内容标识、版权授权、人格权保护等制度安排将继续细化,明确行为边界;另一方面,平台将更依赖技术识别与人工核查相结合的方式,提升对深度合成、仿声仿像等新手段的发现能力。可以预期,持续整治与常态治理并行,将推动网络生态向更真实、更清朗的方向修复。

网络空间不是法外之地,技术也不应成为造假的工具。此次专项整治直指当前乱象,也为数字化社会治理提供了更清晰的规则导向。只有法律约束、技术治理与公众监督协同发力,才能夯实网络诚信基础,让技术更好服务于社会发展与公众生活。