网络AI换脸乱象引争议 专家呼吁技术应用须严守法律伦理底线

一段"经典电影主角跨时空同框"、一场"名人线比武"、一则"海外球星穿唐装拜年"……随着生成式视频技术门槛下降、传播链条加速,网络上以公众人物为主角的合成视频在节前集中涌现。这些内容因"逼真""好玩"迅速走红,却也因授权不明、真伪难辨引发担忧;近日,有公众人物经纪团队对对应的内容扩散提出质问,直指治理缺口。此前还出现演员本人仍在剧组拍摄,却有"同名同脸"账号在直播间带货的案例,身份冒用已从娱乐模仿演变为现实侵权。 问题的核心在于:技术能够快速生成高度拟真的人脸与声音,但权利边界与治理机制并未同步跟进。公众人物的肖像、声音具有高度识别性,一旦被用于未授权场景,极易造成误认与误导。当合成内容与节庆营销、直播带货、情绪煽动相结合,侵权风险与社会风险会被继续放大。 从原因看,一是技术迭代迅速。新一代生成式视频模型可通过文字或图片在短时间内生成带原生音频的视频片段,大幅降低了制作成本与操作难度,使个人也能达到过去专业团队的效果。二是流量机制驱动。名人元素天然具备关注度,平台推荐与用户转发往往放大"猎奇""反差"的传播优势,导致合成内容更易获得点击与二次创作。三是部分用户法律意识不足。一些创作者将"非商用""娱乐向"视为免责理由,忽视了未经许可使用他人肖像、声音本身就可能构成侵权。四是平台治理仍存短板。对合成内容的识别、标注、溯源与事前拦截在部分场景仍不充分,尤其在热门事件或节庆节点,内容产出快、传播广,给审核与处置带来压力。 影响层面,首先是对个人权益的直接侵害。未经授权使用名人肖像、声音制作和传播合成视频,可能侵犯肖像权、声音权益以及个人信息相关权益,并可能带来名誉受损、商业合作受影响等连锁后果。其次是对公共信任的侵蚀。当合成视频大量充斥信息流,公众对"所见即所得"的基本判断被削弱,用户在接收信息时不得不反复求证,社会沟通成本上升。再次是对网络安全与社会治理的挑战。合成内容若被用于编造言论、伪造代言、实施诈骗,危害将从个体扩展到群体,甚至形成黑灰产链条。 对策上,需要把"技术可行"与"法律可行"明确区分开来,形成多方协同的治理闭环。 一是坚持依法划线。现行法律对肖像权、人格权益保护已有明确规定,人脸、人声等生物特征信息属于敏感个人信息范畴。未经权利人同意制作、传播相关内容,不能以"娱乐""致敬"简单豁免。对于以营利为目的的使用、对社会造成显著误导的传播,应依法从严追责。 二是压实平台主体责任。平台应完善合成内容治理规则,在关键环节做到"可识别、可标注、可追溯、可处置"。对涉真人人脸上传、名人关键词触发、异常传播增速等高风险场景,采取更严格的准入与风控策略;对疑似侵权内容强化事前拦截与快速下架机制,畅通权利人投诉渠道,提高处置透明度与效率。平台近期暂停真人人脸上传的做法表明了风险意识,但更需要制度化、常态化安排,避免"热时收紧、冷后反弹"。 三是推动技术方嵌入安全设计。模型侧可通过水印、指纹、合成痕迹保留等方式提升可溯源能力,对高风险功能设置更高门槛,例如实名认证、授权校验、使用场景限制等,让安全能力成为产品标配而非选配。 四是加强公众教育与行业自律。通过普法宣传、创作者规范、MCN机构管理等方式提升守法意识,明确"创意不等于侵权自由"。对恶意仿冒、组织化生产传播的行为,形成更具震慑力的治理合力。 前景判断上,生成式技术带来的内容生产变革已不可逆,关键在于把创新引入规范轨道。随着监管规则完善、平台治理升级与技术溯源能力增强,合成内容有望在影视制作、文旅传播、公益科普等领域释放更大价值。但若放任侵权与冒用蔓延,社会将付出信任成本与治理成本,技术红利也会被风险反噬。未来竞争的不仅是模型能力,更是合规能力、治理能力与社会责任。

AI技术的终极价值在于将人类的想象力转化为现实,而非沦为侵权和欺骗的工具;当前我们正处于技术快速迭代与伦理规范滞后的矛盾期。解决此矛盾需要多方合力:技术企业要主动承担社会责任,平台要筑牢法律防线,监管部门要完善制度设计,全社会要形成尊重他人权益的共识。唯有如此,AI才能真正成为造福人类的力量。