杭州互联网法院最近判了一起案子,是关于用生成式人工智能闹出的风波。原告梁某用了某个AI查学校的招生信息,结果得到的是错误的内容。他指出错误后,AI居然还自动回复说“可以起诉索赔”。这让他觉得很烦,就把运营方告上法庭,要求赔偿。 这次判决特别重要,它给平台定下了规矩。首先得说清楚,AI到底算不算个独立的法律人。法院判了,AI目前不算民事主体,也不是运营者的代理人。所以它说的话不能直接算运营者说的话。 接着看责任问题。法院觉得这次服务属于技术应用,不是产品。所以不能因为信息错了就直接怪平台,得看运营者有没有尽到该有的注意义务。这就是所谓的过错责任原则。 这次判决也给出了好多好点子。第一是把责任压在了人类运营者身上。毕竟收益和风险都是人带来的,技术本身不能免责。第二是细化了平台要注意的东西。如果有违法信息,平台得严格审查;如果是一般错误,法律不强求零失误,但得想办法提升内容可靠性。第三是必须给用户把风险说明白。 对企业来说,得搞三层防护:先优化算法、清理数据、再让人审核;然后得让风险提示清楚易懂;还要让用户方便反馈意见形成改进闭环。 对监管部门来说,得赶紧完善法律规范和标准体系。既要鼓励创新,也要保障权益。 这次判决虽然生效了,但讨论还会继续下去。全球都在摸索怎么管AI,咱们的判决贡献了智慧。 未来技术发展快,责任规则还得在实践中慢慢调整。要形成政府管、行业自律、企业负责、社会监督的格局才行。 法律规则得跟上技术脚步。这次案子像块界碑一样告诉我们:咱们既拥抱智能带来的好处,也要守着以人为本的初心。在创新和规范、发展和安全之间找个平衡是个大课题。