生成式AI加强肖像权保护 科技伦理践行企业责任

(问题)生成式内容服务迅速普及,文本、图像等内容的生产门槛大幅降低,在带来效率提升与创作便利的同时,也让“以假乱真”的风险更突出。尤其是公众人物图像生成,一旦被用于拼接、伪造或移花接木,容易引发谣言传播、商业侵权、名誉受损,甚至造成舆论误导、推高社会治理成本。如何在创新应用与权利保护之间划清边界,成为行业无法回避的课题。 (原因)从技术链条看,图像生成模型依托大规模数据训练,逐步具备对人物面部特征与风格元素的表达能力。公众人物在公共场景曝光度高、素材传播广,更容易被模型“学到”,并在提示词引导下被复现。同时,部分用户出于“蹭热度”“博眼球”等动机,借助工具生成真假难辨的图像,在社交平台快速扩散,增加事实核验难度。在多重风险叠加下,若缺少明确的输出限制与审核策略,侵权和失真内容可能在短时间内被批量生成并链式传播。 (影响)豆包模型收紧公众人物肖像生成规则,首先说明了对人格权的尊重与对法律底线的坚守。我国民法典明确肖像权受法律保护,未经许可不得制作、使用、公开他人肖像,不得以信息技术手段伪造等方式侵害他人权益。在生成式内容场景中,把治理关口前移,通过技术手段减少侵权内容“生成—传播—追责”的事后处置压力,有助于降低当事人维权成本和平台治理成本。其次,该举措对维护清朗网络空间具有现实意义。公众人物自带传播影响力,对应的虚假图像一旦扩散,容易被二次加工、断章取义,造成事实混淆,影响公众判断,削弱社会信任。再次,该做法也为行业提供了参考:技术工具能力越强,越需要在产品设计中嵌入合规与安全机制,用清晰规则对冲不确定风险,提升用户对服务可靠性的预期。 (对策)业内人士认为,公众人物肖像保护不能只靠“提醒用户自律”,更需要覆盖“数据—模型—产品—运营”的系统安排:一是完善请求识别与拦截机制,对涉及特定身份的生成请求进行风险识别,在输出端设置必要“闸门”,降低明显侵权与误导内容的生成概率;二是健全审核与申诉通道,对可能存在边界争议的内容建立复核机制,兼顾合理使用与权利保护;三是强化标识与溯源等配套措施,对合成内容进行显著提示,降低公众被误导的风险;四是加强普法与规则告知,让用户理解肖像权、名誉权等人格权益的法律边界,把“不能做什么”和“为什么不能做”说明白;五是压实平台主体责任,与监管要求同向发力,改进风控策略与内容治理能力,形成可评估、可审计的治理闭环。 (前景)随着生成式内容应用走向更广领域,合规治理将从“事后补救”转向“事前设计”。我国已出台生成式人工智能服务相关管理规定,对服务提供者的内容安全责任、个人信息保护、知识产权与合规义务提出明确要求。可以预期,未来行业竞争不仅体现在模型能力与产品体验上,也将体现在安全能力、合规能力和社会责任能力上。对公众人物肖像生成采取更严格限制,传递出清晰信号:技术创新可以更快,但必须在法治与伦理框架内更稳;应用边界可以更广,但前提是权利保护与公共利益。

当技术创新与人文关怀相互支撑,才能走得更稳更远。此案例提示我们,数字文明的建设不仅依赖代码与算法,更需要法治与伦理作为方向指引。在人工智能持续重塑社会的当下,企业以更务实的治理举措诠释“科技向善”,也为数字治理提供可借鉴的经验。未来,如何在激发创新活力与守护人文价值之间保持动态平衡,仍将是需要持续探索的课题。