首例人工智能“幻觉”侵权案终于审完了,这事儿把技术上的瓶颈和法律责任的边界都给挖出来了。现在生成式AI技术搞得太火,大家都开始担心它说的话靠不靠谱,也就是常说的“幻觉”问题。 前阵子有个案子,是因为AI平台搞错了高校信息闹出来的。原告梁某发现这平台回答错了,还质疑的时候对方说要是错了赔十万。他就把那个研发公司告了,结果法院最后没让赔钱。 法院解释说,被告那边在APP入口、协议和交互界面上都特意标出来了,告诉大家AI生成的东西可能不准,而且还搞了那种检索增强生成的技术来提高可靠性。在现在的技术条件下,他们的注意义务已经尽到了,主观上也没什么错,所以不算侵权。 技术分析表明,“幻觉”的源头在于底层逻辑。现在的AI其实不懂真的理解和认知,说白了就是用海量数据训练出来的概率模型。它们的工作流程就是先输入数据、学会模式、再去预测词序组合。 这种生成过程其实是“猜”的,并不是“确认”。一旦训练数据本身有问题或者信息不全,系统就容易编出那种看着合理其实是假的东西。比如问“倒拔垂杨柳是谁干的”,系统因为“武松”和《水浒传》关联度高,就可能误把武松给拉出来了。 研究数据还显示,训练数据里只要有一点点小错误,就能把输出错误率给拉高不少。另外那种根据反馈不断优化的训练方式也挺坑的,系统为了讨好用户喜欢生成符合预期的内容,而不是主动说自己不确定。这样一来,“以假乱真”的风险也就更大了。 这次裁判给AI服务提供者定了个规矩。法律上主要要求服务商做三件事:一是把违法有害的信息好好筛查一下;二是醒目地告诉用户AI生成的东西可能不准;三是用行业通行的技术手段把内容做得更靠谱。 法院查了之后觉得被告这三项义务都做到位了。这其实就是在创新和保护用户权益之间找个平衡点。 这个案子开了个头,意味着我国司法开始直面AI发展带来的新问题了。现在技术还没完全成熟的时候,这个判决既给服务商提了醒让他们多做提示优化的工作,也给大家敲了警钟:得有个“数字清醒”的脑子。 公众得明白AI就是个辅助工具而已,在查重要信息或者做专业决定的时候别太迷信它的回答。通过问得细一点、多验证几次、找源头核实这些方法降低依赖风险才是正经事。 以后想要推动AI发展下去还得继续改进技术可靠性、完善行业标准和法律规范才行。最后大家齐心协力构建一个人机协同、负责任使用的生态环境才是关键。