随着生成式AI技术越来越多地融入生活,大家对它输出内容的可靠性开始有了更多担心。最近法院判了个案子,让咱们看看咋回事儿。用户梁某在查高校信息的时候,发现AI生成的内容出错了。更让人没想到的是,梁某去问这事,AI竟然说如果错了给赔十万块钱。梁某就把平台公司告上了法院,要求赔偿9999元。 最后法院驳回了原告的请求。这说明法院挺看重技术的特性和服务方的责任。法官说现在技术条件下AI出错难免,但服务方不能因此啥也不担着。根据法律和行业规定,AI服务者主要有三方面义务:第一得把法律禁止的坏信息挡住;第二得给用户特别提示内容可能不准,还得在关键时刻提醒;第三是要多用心,用技术手段让内容更准。 本案里法院调查发现,被告公司在启动页、协议和界面都有提醒标识,也用了检索增强生成技术来提高准确性。法院觉得被告尽到了责任,主观上没过错。至于为啥会“忽悠人”,专家解释说这是概率模型。系统通过海量数据学习词语搭配,给用户提问时按概率拼凑答案。这就容易出岔子:比如数据里本身有偏差就会生出像“武松倒拔垂杨柳”这种假故事;或者信息不足时瞎猜个合理答案。 研究显示数据里哪怕只有0.01%的错误,也能让AI的错误率猛增11个百分点。这说明AI的自信不一定是真的对。 这个案子标志着司法在处理新技术纠纷上的一大步。它让服务者知道咋合规做事,也提醒用户别太信AI。现在技术发展快,咱们得推动技术更可靠、企业规矩更严、大家数字素养更高。只有把创新、法律和认知平衡好,咱们才能好好利用智能工具,把握住数字时代的机会和挑战。