最近,杭州互联网法院给全国首例因生成式人工智能模型的错误信息引发的纠纷画了一个句号。这次审理让人们对AI的责任和边界有了更清晰的认识。大家都会有疑问,当AI成为日常生活和工作的助手时,如果它提供的信息不准确给他人造成了误导,这算不算侵权呢?还有,服务提供商应该承担怎样的责任?这就要说到那个承诺了,AI给出的是“如果内容有误,赔偿10万元”,不过法院给了一个明确的答案:AI本身并不具备民事主体资格,这个承诺是没有法律效力的。所以说,除非服务提供商通过AI来传达相关信息,否则像这样的承诺是无效的。那么,在这个过程中谁来承担责任呢?答案是服务提供商,他们有责任对AI生成的内容进行严格审查。比如发现违法内容时需要及时停止生成和传输,还要给用户提供明显的提示来提醒他们可能存在不准确的情况。 这样一来,《生成式人工智能服务管理暂行办法》就给这次事件提供了法律依据。AI生成内容虽然不属于产品范畴,但是服务提供商依然有义务进行严格审查和提示风险。这也给我们敲响了警钟:在享受AI带来便利的同时也要注意防范可能存在的问题。这次判决确实让大家对AI有了更全面、更深刻的认识。