生成式人工智能侵权风险上升 专家建议以民法典为基础完善规则回应深度伪造挑战

人工智能时代带来的法律挑战日趋紧迫。

从虚假账号盗播仿冒名人进行商业带货,到频繁出现的版权侵权纠纷,生成式人工智能在推动社会进步的同时,也给执法司法工作带来前所未有的难题。

这一现象引发了法律界对如何应对人工智能侵权问题的深入思考。

当前,学术界和实务界对人工智能的法律规制存在不同认识。

一些专家主张尽快制定专门的人工智能法律,以便为新兴技术应用划定清晰的法律边界。

然而,也有学者提出了更为审慎的观点。

在最近召开的数据治理论坛上,有关专家表示,当前对人工智能侵权进行专门立法为时尚早,应当采取"在发展中规范"的思路,这一主张具有重要的现实意义。

从国际比较看,不同国家和地区已形成两种主要的监管模式。

欧盟采取"强监管模式",对个人信息和隐私保护设置了多项合规义务,违反义务容易引发侵权责任。

美国则采取"轻监管重利用"模式,对模型开发者和服务提供者的合规要求相对较轻,主要通过侵权法处理个人信息和隐私侵害。

两种模式各有利弊,反映了保护与发展之间的不同权衡。

为什么当前不宜进行专门立法?

主要有两方面原因。

其一,人工智能侵权的潜在风险总体可控。

现有侵权主要涉及隐私权、个人信息权、知识产权等权利领域,尚未对个人生命财产安全造成现实重大侵害。

其二,人工智能技术发展日新月异,新情况、新问题、新挑战不断涌现,过早进行专门立法可能因滞后性而妨碍技术创新和产业发展。

专家建议,应当以现有法律体系为基础,充分发挥民法典和个人信息保护法的规范作用。

民法典已对人格权、知识产权等进行了全面规定,个人信息保护法也建立了完整的信息保护框架。

通过对这些现有法律条款的深入解释和灵活运用,可以有效应对人工智能引发的多数侵权问题。

同时,通过司法实践中的案例积累和司法解释的制定完善,逐步形成针对人工智能侵权的系统化认识和规范体系。

在具体的法律适用问题上,归责原则的选择至关重要。

有观点认为应当适用无过错责任,即人工智能服务提供者一旦造成侵害就应承担责任。

但这一主张存在明显弊端。

无过错责任会给人工智能开发者和服务提供者施加过大的法律风险,可能严重阻碍技术创新和产业发展。

无过错责任主要适用于产品责任领域,而人工智能提供的是服务而非传统意义上的产品,服务瑕疵通常不会像产品缺陷那样对受害人造成现实重大的人身或财产损害。

因此,应当适用过错责任原则,既为人工智能的开发、设计、制造和服务提供创新空间,也能兼顾受害人的权益保护。

在过错判断标准上,应当以"违反注意义务"为核心。

同时,需要遵循场景化原则,结合具体应用场景权衡风险防控成本与合理义务要求,避免"一刀切"式的简单处理。

例如,利用人工智能收集用户的碎片化信息用于个性化推荐且无不当目的,通常不构成侵权;但针对特定个人收集碎片化信息后进行打包出售,则可能构成侵权。

这种区分体现了法律规范的灵活性和科学性。

此外,过错认定还需考虑现有技术水平的限制。

人工智能存在技术无法克服的困境,如生成信息出现"幻觉"现象。

对此,可以借鉴民法典侵权责任编中的发展风险抗辩制度,以及医疗侵权中对现有技术无法诊治的认可,综合考量风险程度与防范风险的成本。

例如,要求服务提供者逐条删除每一条虚假生成信息可能带来巨大成本,实操性有限;相比之下,针对相关关键词进行合理过滤则更具可行性。

深度伪造技术的规范是当前的重点问题之一。

民法典第一千零一十九条规定禁止利用深度伪造等技术侵害他人权益。

关键在于充分解释该条款,明确其在应对人工智能领域深度伪造侵权问题中的适用范围和具体含义,为司法实践提供明确指导。

在科技创新与权益保护的动态平衡中,中国正探索一条既有别于欧盟刚性监管,又不同于美国自由放任的治理新路。

这条道路既需要法律解释的智慧,更考验着在技术狂飙时代守护公平正义的制度韧性。

当技术变革的浪潮拍打法治堤岸,我们或许更需铭记:任何创新都不应逾越人格尊严的底线,这既是文明的刻度,也是发展的基石。