最近,北京海淀区法院接了一个案子,讲的是律师何远因为AI给生成了虚假的犯罪信息,就把某公司给告了。这事跟杭州互联网法院最近判的那个案子有点像,都是跟生成式AI有关的纠纷。那个案子是在2025年6月发生的,原告梁某是个北京海淀区的学生,当时他用某个AI工具查高校报考信息,结果查到了错误的内容。他发现问题后跟AI说了,这AI不仅说自己没错,还说“如果内容有误就赔10万元”。梁某听了很生气,就把运营这个AI的平台告到了杭州互联网法院。 法院最后把判决结果给了下来,认定这个平台不构成侵权。法院给出了两个理由:第一个是AI本身没民事主体资格,那个自动生成的“赔偿承诺”不算数;第二个是这个服务属于“服务”,而不是“产品”,所以不能用产品责任的无过错原则来判。原告得证明平台有主观过错或者没履行法定义务才行。 判案的法官还提出了一个审查框架:平台不能利用AI做坏事;得告诉用户AI可能出错;还得用技术努力减少出错。法院看了涉案平台的备案和安全评估情况,发现人家都按要求做了,而且用户协议里也提醒了可能出错的特性。再加上原告也没证明自己受了实际损失,法院就觉得平台没什么大毛病。 这次判决还提到了一个很重要的点:“如果在技术刚开始的时候就给服务提供者定太严的责任,容易把人吓坏,”何远律师就把这阶段的AI比作“一位极其博学但偶尔喜欢虚构的助手”,他建议大家对AI的内容还是要核实一下。 这两个案子都反映了现在大语言模型因为基于概率预测生成内容,“幻觉”问题还是存在的。现在北京竞天公诚(杭州)律师事务所也在关注这个事,他们认为这两起案子都能给行业带来参考意义。总的来说,这次判决划清了责任边界,既没有因为技术缺陷就彻底否定AI,也没让平台完全置身事外。这其实是在鼓励大家优化技术、履行义务的同时也提醒用户保持警惕。 至于用户协议里的那些条款如果太不公平、不合理地免除平台责任的话也是不行的。现在算法越来越发达了,但法律还是维护权益、解决纠纷的基石。以后怎么在鼓励创新和防范风险之间找平衡,还得靠立法、司法、行政还有社会大家一起努力才行。