AI合成短剧被曝未经授权挪用肖像引争议 个人生物信息安全再受关注

问题——“AI合成”被滥用,肖像遭“二次加工”引争议 4月初,短剧《桃花簪》因“AI全流程”概念引发讨论,随后被网民指出疑似未充分授权情况下,调用网络写真素材进行人脸合成,并将特定面孔置入负面角色形象。涉及的内容在社交平台传播后,迅速引发“是否侵犯肖像权”“是否构成名誉侵害”“平台与制作方应承担何种责任”等讨论。近期,多起类似案例接连出现,一些模特、博主及公众人物均反映遭遇AI合成肖像被用于短剧、广告或引流内容,甚至出现丑化、戏谑式表达,导致当事人权益受损。 原因——授权链条不清晰、协议条款模糊与逐利冲动叠加 业内人士指出,此类事件频发,往往源于三上因素叠加。 一是素材获取与授权链条不透明。一些制作方为降低成本、缩短周期,倾向于使用网络公开图片或第三方素材库,未能做到“来源可追溯、授权可验证、范围可界定”,在合成环节又更扩大使用场景,造成侵权风险累积。 二是部分工具平台在用户协议中设置宽泛授权条款,或以不显著方式提示“用于训练”“用于模型优化”等内容,用户在上传照片、生成写真时容易忽视数据将被如何保存、调用及流转。表面看是“服务必要”,实质可能形成对个人生物特征信息的长期占有与反复使用空间。 三是流量竞争与商业变现压力。短剧、营销账号追求快速产出与话题传播,个别主体在合规意识不足情况下,将“合成更逼真”“替换更便捷”视为效率工具,忽视肖像权、名誉权以及个人信息保护等法律边界。 影响——侵权成本低、维权难度大,叠加社会信任受损 从个体层面看,肖像被擅自合成进负面角色或低俗剧情,不仅可能造成心理压力与名誉损害,还可能引发现实生活中的误解和网络暴力。由于合成内容传播快、复制易、下架难,损害往往呈现“扩散式、持续性”特征。 从行业层面看,若对数据来源与授权机制缺乏硬约束,所谓“技术创新”容易异化为侵权工具,导致正规内容生产者承受更高合规成本,劣币驱逐良币的风险上升。 从社会层面看,公众对数字内容的真实性与平台治理能力产生疑虑,进而影响对新技术应用的信心。尤其在人脸信息属于敏感个人信息的背景下,一旦被不当收集、交易或滥用,可能衍生诈骗、冒用身份、精准骚扰等更广泛风险。 对策——压实平台责任、强化取证追责、提升个人防护 多位法律与治理领域人士建议,从制度与技术两端同步发力。 其一,明确“先授权、后使用”的底线规则。短剧制作方、平台、工具服务商应建立素材合规审查机制,对人脸、声音等敏感信息实行更严格的授权核验与用途限定,做到可追溯、可审计、可撤回。对以“公开可见”为由擅自抓取并用于商业化的行为,应提高违法成本。 其二,压实平台与工具提供者的主体责任。对上传、生成、分发、变现等关键环节设置风控措施,完善投诉受理与快速处置机制;对疑似侵权内容实现“先下架、再核查”的应急处理,并对多次违规账号与机构实施联合惩戒。 其三,推动用户协议“显著提示+最小必要”原则落地。对涉及训练、存储、共享的条款,应以更清晰方式提示并提供可选择项,避免以“一揽子授权”换取基础服务;同时,探索更便捷的撤回授权、删除数据与查询使用记录通道。 其四,提升公众自我保护能力。专家提醒,用户在使用写真生成、换脸换声等服务时,应优先选择资质清晰、规则透明的平台;谨慎上传高分辨率正脸照、证件照式照片;注意阅读授权范围,保留上传记录、支付凭证与生成结果截图,以便维权取证。 前景——治理将从“事后处置”转向“全链条合规” 随着合成技术门槛降低和应用场景扩张,肖像权与个人信息保护的治理将更强调“预防式合规”和“全链条责任”。可以预期,有关部门、平台与行业组织将推动更细化的标准与可操作的技术规范,例如加强水印溯源、完善合成标识、建立素材授权凭证体系、提升跨平台协同处置效率等。对内容行业来说,真正可持续创新不在于“谁更会拼接”,而在于在尊重权利与守住底线基础上实现技术价值。

技术进步不应以牺牲个人权利为代价。这起事件提醒我们,在享受科技便利的同时,必须重视权益保护。只有平衡技术创新与人文关怀,才能构建健康可持续的数字生态。这既是技术发展的要求,也是社会文明的体现。