问题——深度合成“以假乱真”屡见不鲜,侵权与诈骗风险叠加上升。 王劲松日前发文称,网络出现疑似利用其形象和声音生成的虚假视频,逼真程度较以往明显提升,容易引发误判,甚至被不法分子利用。类似情况并非个案。此前,靳东多次提醒公众警惕冒用其形象的虚假内容,部分受众因误信有关视频遭受经济损失;演员温峥嵘也公开表示刷到过“自己直播”的画面,不得不反复声明唯一官方账号。除演艺界外,部分媒体从业者、体育界知名人士同样被仿冒形象,用于带货引流或吸粉牟利。多领域公众人物被“换脸拟声”,表明深度合成内容正从娱乐恶搞扩展到商业牟利、诱导消费乃至电信网络诈骗等领域。 原因——技术快速迭代与低成本滥用叠加,治理链条仍有薄弱环节。 一是生成门槛持续降低。随着算法工具化、模板化,深度合成无需高成本团队也能实现较高拟真效果,声音克隆、口型驱动、表情迁移等能力被集成到多类应用中,为“批量造假”提供便利。二是传播链条更隐蔽。虚假内容往往借助短视频、直播、社群等多渠道分发,通过蹭热点、借名人背书、情绪化标题等方式迅速扩散;追责时又面临账号频繁更换、跨平台流转、证据留存不足等问题。三是部分平台审核、标识和处置机制仍不完善。对深度合成内容的显著标识、来源校验、风险提示、快速下架与复发阻断等措施,在覆盖范围、执行力度与响应速度上仍需加强。四是违法成本与维权成本不对等。受害者往往要经历取证、投诉、举报、诉讼等多个环节;造假者却可能通过“换号换平台”规避追责,导致“侵权易、维权难”。 影响——既伤害个人权益,也冲击传播秩序与社会信任。 从个体层面看,深度合成冒用直接侵害肖像权、姓名权、名誉权等权益,带来声誉风险与心理压力;若被用于广告代言、带货销售,还可能造成公众误认,连带影响当事人职业形象与商业合作。从社会层面看,“以假乱真”的内容增多会抬高公众辨识成本,削弱对权威信息与真实表达的信任;当虚假视频与诈骗话术结合,容易制造“看得见的人证”“听得见的口供”,更放大电信网络诈骗的迷惑性与危害性。同时,平台生态也会受到冲击:内容质量下降、谣言滋生、灰色营销增多,进而影响正常营商环境与网络空间秩序。 对策——坚持依法治理与技术治理并重,形成“源头防、过程管、末端治”的闭环。 其一,完善制度供给与执法衔接。对利用深度合成实施侵权、诈骗、虚假营销等行为,应依法惩处,强化行政监管、公安侦办与司法裁判衔接,提升违法成本,形成震慑。其二,压实平台主体责任。平台应在内容发布、传播推荐、商业变现等关键环节加强风控:建立更有效的识别与拦截机制;对未按要求显著标识的合成内容从严处理;对高风险账号、异常引流、涉财链接、诱导交易等场景实施重点审核;对被举报内容做到快速核验、快速下架,并同步阻断复发传播。其三,推动“可标识、可追溯、可核验”的技术体系建设。通过水印、指纹、元数据、签名验证等方式提升溯源能力,推动生成端工具落实安全设计,压缩“匿名造假”空间。其四,提升公众防范与依法维权意识。专家建议,遇到疑似冒用视频应优先通过官方渠道核验,不轻信“名人荐股”“名人带货”“紧急求助”等高风险叙事;一旦涉及财产损失或被冒用,应及时报警并保存证据,同时通过平台投诉、律师函、民事诉讼等途径依法维权。部分当事人提出“报警处置”“主动学习了解技术”等做法,也反映出社会对治理体系与个人防护能力同步提升的需求。 前景——在发展与安全之间寻求平衡,推动技术向善、规则先行。 深度合成作为数字内容生产工具,在影视制作、无障碍服务、教育传播、文化创意等领域具有积极价值。关键是把应用纳入可控轨道:一上鼓励创新,服务数字经济发展;另一方面守住安全底线、伦理边界,压实责任链条。随着监管规则更细、平台治理更实、取证与溯源工具更成熟,“合成必标、侵权必究、涉诈必惩”的治理格局有望加快形成。同时,公众媒介素养与风险识别能力提升,也将成为遏制虚假内容扩散的重要力量。
AI技术本身是中立工具,效果取决于使用者意图;王劲松等人的遭遇提示我们,技术能力一旦被滥用,就可能带来新的风险。防范AI虚假视频危害,需要法律制度划清底线,也需要技术企业落实责任、公众保持理性。推动法律、技术与社会治理协同发力,才能在享受AI便利的同时,更有效保护公民合法权益,维护健康有序的信息生态。