ai 生成的“幻觉”内容打官司的案子

大家把注意力都聚焦到了杭州互联网法院的这个判决上,这可是国内第一起因为AI生成的“幻觉”内容打官司的案子。梁某在2025年6月用某个生成式AI查大学报考信息,结果拿到的是错的。他跟AI说了这事儿,那AI模型居然回话说“如果生成内容有误,我给您赔偿10万元”,后来梁某拿官方数据一对比,AI才承认刚才说错了。这事儿闹到了法院。 梁某觉得运营这个AI的公司没尽到责任,导致他被误导,就要求赔偿。结果法院一审驳回了他的请求。那这次的判决到底说了啥呢?说白了就是要给平台的责任画个圈圈。上海交通大学凯原法学院的林洹民老师分析说,这是要确立“人类负责制”,意思是AI是工具,所有风险都得人来扛。 首先法院定了个基调:AI自己不是人,不具备民事主体资格。它说的那些话、做出的承诺其实就是算法算出来的概率结果,不能直接等同于平台运营者的意思。所以不能因为AI说错了就说平台违约。 然后关于责任怎么认定的问题。法院觉得这类服务得按《民法典》的过错责任来算,而不是产品质量的无过错责任。这就是说不能光看AI说错了没,关键看平台是不是故意的或者有没有尽到该尽的责任。 具体到平台该干的活儿,法院给出了个三条框: 第一条是对于那些法律明令禁止的内容(比如暴力、色情这些),平台必须严把关口; 第二条是对于一般性错误,平台不用保证百分百准确,但得采取跟技术发展水平匹配的措施来减少错误; 第三条是风险提示义务得做足了。因为AI容易出错是天生的毛病,平台得大张旗鼓地告诉用户要小心甄别。 在这个案子里法院查了一下发现被告平台界面上确实写得很清楚AI可能会出错还有纠错机制。梁某指出的那个错误属于一般性偏差。再加上梁某没拿出证据证明自己因为这错信息受了实实在在的损害损失。 所以法院就认定被告没侵权。这份判决就是在中国司法机构对AI浪潮做出的及时回应。它肯定了技术创新的好处也不回避问题的局限。 通过区分信息类型、界定不同的注意义务标准在保护用户和促进技术发展之间找到了平衡。这不仅给后来的案子做了个样板还告诉平台怎么规范运营怎么加强自律。 它向社会传递了个信号:技术工具得理性使用不能完全依赖。这对推动中国的人工智能产业在法治轨道上健康发展肯定是有帮助的。