最近在浙江省杭州互联网法院,有个挺特别的案子判完了。这事发生在2025年6月,用户梁某在用某个生成式人工智能程序查学校信息时,结果出来的是错误的数据。等他指出问题,那个AI竟然回话说“如果有错误就赔10万,能去杭州互联网法院起诉”。直到梁某把官方的数据给他看,AI才承认之前错了。梁某觉得这明显是误导,还增加了他核实信息和维权的成本,于是把运营方告了,要人家赔9999元。这个案子的焦点主要是两个问题:一个是AI说的那些话能不能算平台自己的意思;另一个是平台对这种AI“幻觉”造成的普通错误,到底该负多大的责任。法院最后给出了明确说法。他们先讲了,按照现在的法律,AI本身没资格当法律上的主体,也不是平台的代理人。就算AI说了要赔钱这种话,也只是模型自己算出来的反馈,不算平台真有那个意思。接着,法院又把平台该做的事儿分了层说。他们觉得法律不能硬逼着AI做到绝对准确,这是技术现在的特点。平台主要得采取“合理措施”,具体有三方面:一是在用户协议、界面这些显眼的地方给用户提醒一下,让他们知道AI可能不准;二是用行内的技术手段多改进改进,让结果靠谱点;三是把那些违法有害的内容给挡住。尤其是对教育、医疗这些容易出事的领域,平台得格外小心,用特别的技术和评估措施来防患未然。 最后法院根据这些道理看了看具体情况。原告梁某没能拿出证据证明自己因为这错误信息真的受了什么实质的损害,或者是怎么受了影响的。所以法院认定平台没过错,不构成侵权,驳回了梁某的请求。这次判决生效了,双方也都没上诉。杭州互联网法院这么判不只是解决了这一个案子,更是在探索怎么管AI这种新玩意儿。他们划清了“技术瑕疵”和“法律过错”的界限,既没让新产业背上不必要的包袱,又给大家立了规矩来保护权益。这个判决给做AI的人指了条明路,标志着我国在这块的治理上往前迈了一大步,能帮着技术在法律的轨道上更稳当、更负责地发展。