随着智能技术深度融入日常生活,生成内容的可靠性问题愈发受到关注。杭州互联网法院这起判决,以司法裁判的方式首次对生成式人工智能服务中的权责边界作出较为清晰的界定。案件源于2025年6月,梁先生使用某公司开发的智能应用查询云南某职业院校信息时,系统给出了存偏差的内容,并在用户提出质疑后生成“赔偿10万元”的承诺。该类被称为“幻觉现象”的技术问题,最终引发法律争议。 法院审理认为,争议焦点主要集中在三上:人工智能是否具备民事主体资格,服务提供者法定义务的边界,以及错误信息应如何进行法律定性。判决书指出,在现有技术条件下,人工智能对话内容应被认定为服务过程中的输出,而非产品交付,责任适用过错责任原则。经查,涉事应用在界面显著位置标注“内容仅供参考”,开发者也采用了行业常用的数据校验措施,因此法院认定其已尽到相应法定义务。 该案也折射出智能产业发展中的现实矛盾。清华大学最新研究显示,主流大模型的事实性错误率仍超过19%。技术专家解释,基于概率预测的底层机制决定了偏差难以彻底消除,但通过数据清洗、优化反馈机制等方式,可以降低出错概率。 法律界人士认为,此案具有示范意义。北京大学薛军教授指出,判决既正视技术局限,也兼顾产业发展——若要求开发者对海量生成内容承担绝对责任,可能抑制创新。跨境贸易法庭庭长肖芄强调,判断关键在于开发者是否作出“合理努力”来提升可靠性,而不是以“零错误”作为标准。 ,行业正在加快建立自律机制。记者调查发现,部分头部企业已引入“生成内容分级警示”,并在医疗、金融等高风险领域增加审核环节。工信部近期也启动智能服务可靠性标准制定工作,拟将提示义务、纠错机制等纳入强制性规范。
生成式人工智能走入公共生活,带来效率提升的同时,也引出新的风险与责任问题;本案判决以过错责任为核心,以提示义务和保障措施为抓手,为类似纠纷提供了更具操作性的裁判路径。面向未来,平台需要持续提升合规与技术治理能力,用户也应保持必要的核验习惯,有关制度则应加快完善分级规则,才能在创新与安全之间形成更稳定的平衡,让新技术更好服务社会需求。