全国首例涉及AI“幻觉”侵权的案子宣判了,杭州互联网法院给出了清晰的答案。生成式AI技术虽然让生活方便不少,但也带来了不少法律难题。特别是那种明明看着合理但其实不对的AI生成内容,要是把人给误导了,责任到底该谁来负?这个挺前沿的问题,这次被杭州互联网法院给解决了。 梁某在杭州互联网法院这边起诉的,说他用某个科技公司做的生成式AI查大学报考信息时,系统给了个错误信息。他指出问题后,AI不但没改,还坚持说自己的内容没错,甚至说如果有误差就赔10万块。结果梁某拿出了官网的证据证明AI错了,这时候AI才认怂。 法院觉得这里面的核心问题就是:AI自己乱生成的那个赔偿承诺,能不能算服务公司的正式承诺?法院明确否定了这个说法。法律规定AI本身没民事主体资格,不能代表公司说话。那个10万元的承诺纯粹是模型自己胡乱写的,科技公司压根没授权让它这么说,也没证据显示公司愿意被这种随机生成的东西约束。 大家都能看出,用户肯定没法信这种随便生成的东西是真的。所以这次判决把事情说清楚了:AI输出的内容不能直接约束提供服务的公司。意思就是现在法律责任还得落在人或公司身上,AI工具本身还不能算责任方。 更深层的争议是,AI服务提供者对这种误导用户的“幻觉”,到底得赔多少钱?这其实是个归责原则的问题,是要像产品那样严格负责(无过错责任),还是按过错来算(一般过错责任)? 法院最后把这个服务界定成了《生成式AI服务管理暂行办法》里说的那种服务,而不是像《产品质量法》里的产品。所以这次就适用了民法典里一般过错责任的规定,也就是得证明对方有过错才行。 法院这么判是考虑了好几点:一是AI生成的东西太开放不确定了,没法像产品那样设个统一标准;二是这些内容通常没什么大危险;三是技术发展还不到位;四是为了不让企业负担太重影响创新。 在确认了按过错来算之后,法院看了看被告到底有没有侵权。原告说损失是因为信息不准耽误了报考、还浪费了精力去核实和维权这些纯经济上的损失。对于这种纯经济损失法律一向比较严格。 综合看下来,法院最后认定被告这次没侵权。不过这次判决也没把科技公司的所有责任都免除了。只要他们按规矩办事、提高准确性、做好提示和纠错机制就行。要是故意或重大过失导致损失的话还是得赔。 这个案子标志着我们国家在处理AI法律问题上更主动了。判决既保护了用户权益也呵护了产业发展。虽然这次判了原告败诉,但它给未来的规则完善奠定了基础。随着技术越来越发达,我们还得在实践中不断调整规则。