问题——生成式智能“答非所问”“信息失实”频现,责任边界如何划定? 近年来,生成式智能凭借检索、写作、问答等能力,教育咨询、消费决策、医疗健康等场景被广泛使用。但随之出现的“信息偏差”也引发关注:有人据此作出投资判断遭受损失,有人把问诊建议当成诊疗依据,反而耽误治疗。公众最关心的是:当生成内容不准确并造成误导时,服务提供者是否需要承担侵权责任——如何承担——边界在哪里。 原因——技术机理与使用方式叠加,决定“偏差”具有一定不可避免性 本案争议的关键之一,在于用户将对话式输出当作权威结论。2025年6月,原告梁先生查询某职业院校信息时使用一款生成式智能应用,发现部分内容与其后续核实结果不一致。其在对话中提出纠正后,该应用仍坚持原说法,并生成“如有错误将赔偿10万元、建议起诉”等内容。梁先生据此于同年7月将研发企业诉至杭州互联网法院,认为生成信息具有误导性并要求赔偿。 从行业实践看,生成式智能多依赖统计预测与语境关联生成文本,输出与事实存在偏离的可能;同时,提示词设置、上下文引导以及对信息来源、时效性的忽视,都会放大偏差风险。基于此,法律评价需要区分“技术可预见的局限”与“服务提供者可控制的义务”。 影响——判决为同类纠纷提供清晰审查框架,释放“鼓励创新与规范发展并重”信号 法院认为,对应的系统不具有民事主体资格,无法作出具有法律约束力的意思表示。对话中自动生成的所谓“赔偿承诺”,不应当然视为研发企业的真实意思表示,也不直接产生合同或担保效果。更地,法院将生成式智能输出界定为“服务过程中的信息提供”,并在责任认定上强调过错要件:并非出现不准确信息就必然构成侵权,关键在于服务提供者是否存在过错、是否对用户权益造成实际损害,以及因果关系是否成立。 在本案中,法院结合页面提示、技术措施与管理安排等因素综合判断:被告企业已在醒目位置提示“内容仅供参考,请仔细甄别”等风险信息,并采取行业通行措施持续提升可靠性。据此认定其已履行显著提示说明义务与功能可靠性的基本保障义务,案涉行为不存在过错,也未造成可归责的损害结果,遂依法驳回原告诉讼请求。判决后双方均未上诉。 对策——以“可审计、可提示、可改进”为抓手,压实平台责任与用户理性使用 业内与法律人士普遍认为,治理重点不在于否定技术价值,而在于建立可操作的责任评价尺度。结合判决要点与实践需求,可从三上推进: 一是强化显著提示与场景分级管理。对教育、医疗、金融等高风险领域,应增加更明确的提示、限制性表述、权威来源链接及“不得替代专业意见”的交互设计,避免用户将生成内容等同于官方信息或专业结论。 二是提升可靠性保障与纠错机制。服务提供者应持续投入数据治理、事实核验、风险过滤与用户反馈闭环,并形成可证明“尽到合理注意义务”的记录体系,包括版本迭代记录、评测报告、投诉处置与纠错响应时效等。 三是推动行业标准与社会共治。有关部门、行业协会可围绕事实性偏差评测、标注规范、风险告知格式、日志留存与应急处置等制定更可执行的指引,为司法审查提供更统一的参照。 前景——在规则清晰基础上促进应用落地,形成“技术进步—风险控制—公众信任”的良性循环 随着生成式智能进一步进入政务服务、企业办公与公共信息服务,公众对“准确、可追溯、可解释”的期待将持续提高。此次判决说明了司法对新技术的审慎包容:既明确系统不作为权利义务主体,避免将技术工具拟人化、人格化;也通过提示义务与可靠性义务的要求,为企业划定合规底线,为用户建立风险认知框架。可以预见,未来相关纠纷将更多围绕“是否尽到合理注意”“特定场景是否采取更高标准措施”“是否存在诱导性表述或营销夸大”等问题展开,合规能力也将成为行业竞争的重要因素。
当技术快速迭代,司法的边界校准作用更显关键。此案既保障了用户的知情权,也为技术发展留出合理的容错空间,其裁判思路有望为智能时代涉及的治理提供重要参照。如何在不断变化的技术环境中兼顾发展与安全,这个司法实践给出了清晰的路径与启示。