网络虚假信息治理取得阶段性成果 万余违规账号被依法处置

随着生成合成技术门槛降低、传播链条加速,一段“看似真实”的视频、图片可能在短时间内跨平台扩散,成为春节前后社交平台的“爆款”。

与此同时,不按规定添加合成信息标识、刻意模糊来源的内容明显增多,真假混杂、以假乱真问题引发社会关注。

针对这一新型网络传播乱象,网信部门近日组织开展排查整治,督促网站平台依法依约处置违规账号13421个,清理违法违规信息54.3万余条,并通报多起典型案例,释放从严治理信号。

问题方面,当前突出表现集中在五类:一是编造“感人”“惊险”情节,用合成视频包装“高铁站动物救婴”“拆弹救人”“猛兽伤人”等故事,却不作任何合成标识,以情绪叙事和猎奇场景恶意博流量;二是以换脸、声音克隆等方式假冒运动员、演员、主持人、企业家等公众人物,捏造不实言论吸粉引流,或未经授权售卖“祝福”“拜年”等视频牟利,涉及人格权、肖像权等多重侵害;三是合成火灾等事故现场画面,恶意编造、炒作突发事件,混淆视听、扰乱公共秩序;四是面向未成年人偏好的动画角色进行“魔改”,制作低俗惊悚、血腥暴力内容,传播不良价值观,侵扰未成年人身心健康;五是公开传播去除合成标识的方法、教程和软件,甚至在电商平台兜售相关服务,形成“去标识—再传播—再牟利”的黑灰链条,直接对抗治理要求。

原因方面,既有技术扩散带来的新挑战,也有流量利益驱动下的失范行为。

一方面,生成合成内容制作成本大幅下降,“一键生成、批量产出”让虚构叙事更易“工业化”;算法推荐机制放大情绪化、冲突性内容的传播优势,部分账号以“更像真相”为目标刻意不标注来源,降低受众辨识度。

另一方面,部分从业者法律意识、规则意识薄弱,将标识义务视为“影响传播”的障碍;更有少数人铤而走险,通过冒名、侵权、制造恐慌等方式牟利,推动灰色服务滋生蔓延。

影响方面,未标识的合成信息一旦与公共事件、群体情绪相叠加,极易造成“以假带真”的连锁反应:对社会层面,虚假灾情、事故画面可能引发恐慌和谣言扩散,挤占公共应急信息通道,损害社会信任与秩序;对个人层面,假冒公众人物言论和“定制祝福”不仅侵权,更可能诱导消费、误导投资与舆论判断;对未成年人保护而言,低俗暴力内容易形成错误模仿与价值偏差,带来长期心理与行为风险;对产业生态而言,“去标识”工具泛滥将削弱规则执行力,冲击内容创作的诚信基础,最终伤害技术应用的正向发展空间。

对策方面,此次集中整治凸显“监管—平台—创作者”协同发力的治理路径。

监管层面,明确对未标识的虚假不实信息保持高压严管,发现即处置,并以典型案例形成震慑;平台层面,需要把“合成信息标识”前置为内容审核和分发的硬约束,强化对热门话题、突发事件类内容的溯源核验,提高对换脸、克隆声音、合成灾情等高风险形态的识别能力,同时对售卖去标识服务、传播规避教程的账号和商品从严下架处置;创作者层面,应当依法依规主动添加合成标识,明确来源与制作方式,避免通过“真相包装”误导受众,更不得以冒名、侵权、编造灾情等方式牟利。

对普通网民而言,也需提升媒介素养,尤其在节日期间对“过于离奇”“情绪强烈”的内容保持审慎,多渠道核验权威信息,减少二次传播带来的扩散风险。

前景方面,生成合成技术将持续演进,社会对内容真实性的需求也将同步提升。

可以预期,围绕“标识可见、责任可追、传播可控”的规则体系将进一步细化,技术治理手段与制度约束会加快融合,平台的主体责任边界也将更为清晰。

坚持依法治理与鼓励创新并重,有助于让技术应用回归服务公共利益、提升内容供给质量的正轨,形成更可信、更有序的网络空间。

AI技术的发展是大势所趋,但技术进步必须建立在伦理规范和法律框架之上。

本次大规模整治行动表明,网络空间不是法外之地,任何利用新技术进行欺骗、误导、侵害的行为都将面临严肃处理。

对于广大网络用户而言,也需要提升媒介素养,学会辨别真伪,不盲目相信和传播来源不明的内容。

只有创作者、平台、监管部门和用户各尽其责,才能让AI技术真正造福社会,而不是沦为欺骗和伤害的工具。

网络生态的清朗需要全社会的共同参与和坚守。