生成式ai 输出不实信息的纠纷给判了,直接明确了人工智能不具备民事主体资格。

前阵子,杭州互联网法院把一起全国首例生成式AI输出不实信息的纠纷给判了,直接明确了人工智能不具备民事主体资格。2025年6月的时候,用户梁某在某科技公司开发的应用里问了关于某高校主校区的报考信息,结果AI给出的答案不准确。梁某纠正了好几次,AI不但坚持自己没错,还说要是内容不对就赔十万元,甚至建议梁某去法院起诉。最后还是梁某拿出了官方证据,AI才承认错误。梁某觉得这AI误导了他,就把开发公司给告了,索赔9999元。 被告科技公司那边的理由是,对话内容是AI模型自己生成的,他们已经做了该做的注意义务,而且用户也没实际损失,所以不算侵权。大家的争论焦点就是这个:AI的承诺到底谁来负责?法官肖芄指出,我国法律没赋予AI民事主体资格。这就说明,AI生成的赔偿承诺不能算开发公司的真实意思。再说了,用户也不该随便信AI在一般场景里的胡言乱语。 对于责任这块儿,法院用的是过错责任原则。因为生成式AI提供的是内容服务,不是标准产品。如果用无过错责任,可能会把企业压垮,也会阻碍技术发展。不过法院也说了,在那种专门给客服用的场景里,要是用户信了AI的话,那开发公司可能还是得负责。 关于注意义务的边界,法院列出了三项核心要求:一是不能让有毒有害的信息出现;二是得跟用户说清楚AI的功能有限;三是要用行业的技术手段把内容准确性提高点。这次的案子里,被告公司已经在多处显眼位置设置了风险提示,还完成了备案和安全评估,并且用上了RAG技术来提升准确性。所以法院认为他们已经尽到了该有的注意义务。 损害方面得看实际损失和因果关系有没有建立起来。原告说自己错过了报考机会、还要花核实费,法院觉得这属于纯粹经济利益。没证据证明他真的损失了钱,也没证明那个错误信息真影响了他的决策。所以最终判被告公司没过错、不侵权。 这次判决不光解决了梁某的事儿,还定了很多规矩。它给生成式AI在法律上的地位做了个界定,告诉企业们在现在的技术水平下要注意什么。这种过错责任和合理注意义务的框架,给以后类似的纠纷提供了参考思路。它既保护了技术发展,也提醒大家要遵守安全和合规的要求。