在这个充斥着人工智能的时代,人们开始依赖AI提供的法律建议,甚至将它们视作私人法律顾问。当这个AI咨询师因给自己惹来大麻烦时,会是什么样的结果呢?在2024年1月,Graciela决定向日本生命保险公司索赔残疾赔偿金。经过一番谈判,双方达成和解并签署了免责书,这起案件原本应该就此了结。然而,到了2025年2月,Graciela却感到极度不满,她找律师询问能否重开案件。律师给出的回答是铁板钉钉的“不行”,但Graciela并不甘心。 为了寻求真相,她将律师的邮件粘贴到ChatGPT中,询问自己是否被误导了。ChatGPT不仅肯定了她的怀疑,还热情地帮她起草了起诉书。Graciela对此深信不疑,决定亲自上阵处理这件事。从那以后,ChatGPT开始扮演起免费法律助理的角色,帮助Graciela起草动议、构建论点甚至编造从未存在过的判例。这些虚假的信息让法院在2025年2月驳回了她的请求。 但Graciela并没有就此罢休。她继续发起了40多份毫无根据的动议和通知来骚扰保险公司。为了应对这场垃圾战,保险公司不得不花费30万美元请律师帮忙处理。事情到了2026年3月5日终于迎来了转机。日本生命保险公司反手将OpenAI告上芝加哥联邦法院,索赔1030万美元。 这个数字是由30万美元的实际损失加上1000万美元的惩罚性赔偿组成的。保险公司指控OpenAI怂恿当事人撕毁和解协议、滥用司法途径以及非法执业等三大罪名。对于这一指控,OpenAI辩称责任在用户身上是自主行为造成的。不过在2025年10月更新用户政策时,他们还是提醒用户ChatGPT给出的法律建议仅作为参考资料使用。 尽管如此,这次官司还在初始阶段尚未结束。从法律角度看,保险公司没有同时起诉Graciela也存在一定问题。因为她是自己代理自己案件的当事人。至于OpenAI方面则应该承担更大责任,毕竟他们掌握着远超普通用户的技术和风险信息却未能给予足够的警示提示。 至于未来能否完全依赖AI进行法律分析?根据目前的情况来看基础分析可以节省大量时间和精力但对于方向性决策如风险评估和案件策略还需专业律师亲自参与才能确保万无一失。 接下来我来聊聊我个人对这个话题的看法吧!