多家科技平台规范AI生成内容 真人明星肖像保护机制全面升级

近期,"限制生成某演员涉及的内容"的话题引发网民关注;争议的核心于:平台是否对特定艺人采取差别化限制,以及此类限制是否会影响正常的创作和讨论。 相关平台回应称,并未针对个别艺人设置特殊门槛,而是对所有真人明星、公众人物执行统一的生成内容管理规则。目的是防止不实信息、恶搞诋毁与商业侵权等风险。 多家平台将"统一设限"的依据指向权利保护与安全治理。一上,公众人物的肖像权、名誉权等人格权益受法律保护。未经授权生成高度仿真的人物形象,尤其可用于传播与商业利用的场景中,容易触发侵权争议。另一上,随着深度合成技术门槛降低,伪造图像、拼接视频、虚构言论等"高拟真内容"更易被包装成"证据"传播,可能误导公众、扰乱舆论生态。基于这些风险,平台通过关键词过滤、内容审核、生成能力限制等方式划定边界。 记者梳理发现,除涉事平台外,部分平台明确表示无法生成任何真实存的公众人物图像,理由包括遵守安全准则、避免深度伪造、降低侵权与虚假信息传播风险。业内法律人士指出,建立必要的过滤与审核机制,对明显指向特定自然人的生成请求进行干预,属于平台履行管理义务、降低法律风险的常见做法。 从社会层面看,统一收紧公众人物相关生成内容,有助于压缩"以假乱真"的传播空间,减少恶搞、造谣对当事人造成的名誉损害,维护清朗网络环境。对产业而言,这类规则为技术应用设置安全护栏,推动平台在合规框架内开展产品迭代。 但规则趋严也带来新的讨论:如何区分合理的评论表达、二次创作与侵权性仿真;如何在保护权利与促进创新之间取得平衡;如何避免"一刀切"导致正常使用受限。特别是在影视宣发、广告创意、教育科普等领域,若存在合法授权与明确用途,平台需要提供更清晰、可操作的合规流程。 业内普遍认为应从三上着力:一是更细化平台规范,明确禁止性场景与可允许场景,并公开判定标准与申诉渠道。二是完善授权与证明机制,为经纪公司、品牌方提供可核验的授权入口,在合规前提下满足正当商业需求。三是加强内容标识与溯源能力建设,对生成内容进行显著提示,降低公众被误导的概率。 随着深度合成治理体系逐步完善,公众人物生成内容的管理将呈现"更统一、更透明、更精细"的趋势。未来竞争焦点将不再是"能不能生成",而是"如何在合规与安全前提下提供高质量、可控、可追责的服务"。平台、权利人、监管部门与公众的协同治理,将成为减少争议、提升信任的关键。

AI技术是一把双刃剑。多家平台对明星肖像生成的统一规范,反映了业界法律合规和伦理责任上的自觉意识。这种主动担当既保护了个人的合法权益,也为AI产业的健康发展奠定了基础。在技术创新与权益保护的平衡中,一个更加成熟、更加负责任的产业生态正在逐步形成。