随着生成式人工智能技术的广泛应用,由其生成内容引发的法律纠纷日益增多。
近日,杭州互联网法院审结的一起案件为这一新兴领域的司法规范提供了重要参考。
事件起源于一次信息咨询。
2025年3月,用户梁某注册使用了某科技公司开发的生成式人工智能应用程序。
同年6月29日,他通过该应用询问某高校报考相关信息,却收到了与官方信息不符的回复。
当梁某指出错误后,AI非但没有认错,反而"主动出击",声称若生成内容有误愿意赔偿10万元,甚至建议用户向法院起诉索赔。
直到梁某提供了高校官方招生信息,AI才承认自己生成了不准确的内容。
基于AI的明确承诺,梁某将开发公司诉至法院,要求赔偿损失9999元。
他认为,AI生成的错误信息对其报考决策构成误导,相关责任应由开发公司承担。
被告则辩称,对话内容由人工智能模型生成,公司已充分履行注意义务,不存在过错,原告也未产生实际损失。
本案的核心法律问题在于:人工智能能否成为民事主体,其生成的承诺是否对开发公司产生约束力。
承办法官肖芄在判决中明确指出,人工智能既不是自然人,也不属于法人或非法人组织,我国法律并未赋予其民事主体资格,因此不能独立作出具有法律意义的意思表示。
AI作出的10万元赔偿承诺,并不能视为开发公司的意思表示。
法官进一步分析,一方面,公司未授权AI作出赔偿承诺,也没有证据表明愿意受AI生成内容约束;另一方面,从社会常识来看,用户不应轻信AI的此类随机表述。
在责任认定上,法院采用了过错责任原则而非产品责任的无过错责任原则。
这一选择具有重要意义。
法官指出,生成式人工智能提供的是内容生成服务,而非具体产品,不具备具体、特定用途及合理可行的质检标准。
若适用无过错责任,可能不当加重企业负担,不利于AI产业创新发展。
同时,AI生成的信息不具有侵权法意义上的高度危险,服务提供者对海量生成内容的预见和控制能力有限,一概适用无过错责任恐将导致行为人面临不确定的责任,侵权责任将漫无边际。
针对原告主张的"错失报考机会、额外产生核实成本"等损失,法院认定这类利益属于纯粹经济利益,而非人格权、物权等法定绝对权。
因此,不能依据权益本身被侵害而认定行为的非法性,而须从被告是否违反注意义务进行判定。
在明确责任原则的基础上,法院进一步规范了生成式AI服务提供者应承担的核心注意义务。
首先,对法律禁止的有毒、有害、违法信息必须严格审查,而对其他一般性不准确信息,现行法律规范未对服务提供者科以必须确保信息准确的结果性审查义务。
其次,需以醒目方式提示用户AI功能局限,告知生成信息仅作辅助参考,尤其涉及人身财产安全的专业性问题要重点警示。
再次,需采用行业通行技术提升内容准确性。
本案中,被告已在应用欢迎页、用户协议及交互界面显著位置提示AI功能局限,其AI大模型已完成国家备案和安全评估,还采用检索增强生成等技术提升准确性。
法院认定其已尽到合理注意义务。
最终,法院认定侵权成立还需满足"实际损害发生"和"行为与损害存在因果关系"两个关键条件。
本案中原告未能提供证据证明其因AI错误信息遭受实际损失,且该错误信息并未实质影响其报考决策,因此无法认定存在法律意义上的因果关系。
法院最终驳回原告的诉讼请求。
值得注意的是,法官在判决中也指出了例外情形。
在人工智能客服等足以让用户产生合理信赖的特定场景中,AI生成内容仍可能对服务提供者产生约束力。
这表明法院在规范AI产业发展的同时,也充分考虑了消费者权益保护的需要。
这起判决的价值不在于否定新技术的应用,而在于以法治方式厘清“技术—平台—用户”三者之间的权利义务:技术不具备独立承担责任的主体地位,平台责任取决于是否尽到合理注意义务,用户也需对高敏感信息保持审慎核验。
只有让规则更透明、责任更可预期、治理更可执行,生成式内容服务才能在风险可控的前提下更好服务公众、释放产业创新动能。