问题——生成内容“看似权威”却可能出错,责任到底由谁承担? 中国互联网络信息中心发布的《生成式人工智能应用发展报告(2025)》显示,截至2025年6月,我国生成式人工智能用户规模达5.15亿人,普及率36.5%;截至2025年8月底,累计538款生成式人工智能服务完成备案;用户规模快速扩大、应用场景持续下沉,使生成内容信息传播链条中的占比不断提升。同时,“幻觉”导致的事实错误、过时信息、逻辑拼接乃至凭空编造,正在成为新的争议源:普通用户可能被误导,企业商誉可能被损害,平台与研发企业也面临合规与信任压力。如何在技术快速迭代中划清责任边界,成为司法与社会治理的共同课题。 原因——技术局限叠加使用不当,放大了失实风险与传播后果。 一上,生成式模型依赖训练数据与概率生成机制,受数据偏差、更新滞后、语境理解不足等因素影响,输出可能出现错误或遗漏。人机交互中,模型常以“确定语气”表达不确定内容,容易形成“高可信错觉”。另一上,内容生产链条发生变化:一些使用者将模型当作“自动写作机”“快速背书器”,忽视核验与来源标注;个别经营者甚至把生成内容作为吸引流量、开展商业推广的工具,通过“快产出、快传播”获取收益。在注意力经济驱动下,失实内容一旦被包装成“新闻”“科普”或“权威解读”,对公共认知与市场秩序的冲击更为直接。 影响——不同主体的义务被重新审视,司法尺度更强调“合理性”与“能力匹配”。 近期杭州两起案例显示出清晰的裁判逻辑。其一,某用户因模型输出高校校区信息不准确并出现“赔偿”表述而起诉研发企业索赔。法院审理认为,服务提供者已在用户协议中对输出不准确性作出提示,且在当下技术条件下采取了行业通行的必要措施以提升准确性,已尽到合理提示与管理义务,未体现其存在过错,最终驳回诉讼请求。该案也被视作因生成式模型“幻觉”引发侵权纠纷的典型样本。其二,一名自媒体从业者使用大模型生成并发布商业推广文章,错误宣称两家公司存在隶属关系,发布前未核实内容,也未在前端显著标注为生成内容,仅在后台作技术标注。法院认为其以引流营利为目的传播失实信息,明知内容来自生成工具仍未尽到与其能力相符的审核与提示义务,损害企业商业信誉并扰乱竞争秩序,构成不正当竞争,判令赔偿并发布声明消除影响。 两案结果不同,但共同指向一个判断框架:生成工具并不当然替代人的注意义务。对于服务提供者,关键在于是否进行了清晰可见的风险告知、是否建立必要的安全与合规机制、是否在技术与管理层面尽到合理限度的防范措施;对于内容发布者,关键在于是否核验事实、是否对受众作出显著标识、是否在商业传播中遵守诚信原则与商业道德。责任分配不走“一刀切”,而是围绕过错、可预见性、影响范围与义务履行情况综合认定。 对策——以“分层尽责”为主线,推动技术、平台、行业与公众协同治理。 首先,压实内容发布者的第一责任。无论是媒体机构、商业主体还是个人账号,只要形成对外传播,就应当建立基本核验流程:涉及企业关系、资质、数据、地理信息等可核查事实,应以权威来源或多源交叉验证为底线;涉及专业建议的内容,应明确提示并避免将生成结果包装成结论。对商业推广内容尤其要强化显著标识,避免受众被“拟真文本”误导。 其次,推动服务提供者完善“可感知”的提示与“可追溯”的治理。提示义务不应停留在冗长协议的角落,而应在交互界面、关键场景、输出内容附近作出醒目提醒;对高风险领域可采取更严格的引导与限制机制,推动内容水印、生成标识、日志留存、投诉处置等制度化建设,为事后查证与纠纷化解提供基础。 再次,平台与监管形成闭环。平台应对商业化传播与热点信息传播强化审核与纠错机制,完善谣言治理、侵权投诉、快速处置与复核通道;行业组织可制定更细化的标识规范、审核指引与合规评估标准,降低从业者“不会做、不知道怎么做”的治理成本。司法层面则可通过典型案例释法明责,持续明确“合理提示”“能力匹配审核”“商业利益驱动下的更高注意义务”等裁判要点,增强预期稳定性。 前景——在鼓励创新与权利保护之间寻找动态平衡,将成为长期命题。 审判实践表明,生成式人工智能服务更接近“服务”属性,其治理思路强调过错与合理性,避免对服务提供者采取过度严苛的责任模式而抑制创新。同时,随着应用深入政务服务、教育医疗、金融消费等领域,纠纷类型将从“信息失实”扩展到“权益侵害”“数据合规”“算法歧视”“深度合成滥用”等更复杂场景。未来治理的关键在于:让创新者在合规轨道上“敢投入”、让权利人获得及时救济、让公众在可解释、可追溯机制中“放心用”。当技术能力提升、标识与追责机制更健全,生成内容的可信度与社会接受度也有望同步提高。
人工智能的发展是大势所趋,但任何技术的应用都必须在法律框架内进行;杭州法院通过这些案件的审理,正在为AI时代的法律治理探索新路径。这些判决不仅明确了各方的权利义务,更重要的是传递了一个信号:在拥抱技术进步的同时,必须保持理性和谨慎。无论是AI服务提供者还是使用者,都应认识到技术的局限性,在充分利用AI便利的同时,承担起相应的法律责任。只有这样,才能让人工智能真正成为造福社会的力量,而不是风险的源头。