百度生成式技术陷名誉权纠纷案开庭 平台"技术中立"主张引争议

一、问题的提出 2025年5月,律师黄贵耕在使用百度搜索时发现,百度AI自动生成了多条涉及其本人的严重虚假信息,内容包含威胁法官、介绍贿赂、伪造印章、非法吸收公众存款等多项刑事犯罪指控。此后,这些信息被传播至其所代理案件的委托人及家属,对其职业声誉与业务开展造成实际影响。黄贵耕随即向北京海淀区人民法院提起诉讼,要求百度公司停止侵害、发布澄清声明并赔偿105万元。法院于2025年11月2日正式立案受理,并将案件定性为AI网络侵权责任纠纷。 二、问题的根源 通过调查取证,虚假信息的生成路径逐步明晰。有关内容主要源于对新闻报道、公文及公开披露信息的误用与混合:系统将案件材料中的“律师黄某”“当事人黄某”等通用表述直接替换为“黄贵耕”,或将不同案件的人物信息错误关联到其名下,导致张冠李戴。这类错误折射出生成式人工智能在处理大量信息、进行归纳整合时可能出现的结构性偏差。 百度在庭审中将上述现象称为“AI幻觉”,即大模型在整合搜索信息并生成自然语言回答时出现非事实输出。百度辩称,“AI幻觉”属于当前行业普遍存在的阶段性问题,是技术迭代中的现象,并非产品缺陷或故意行为。 三、责任的争议 本案焦点在于如何界定人工智能生成内容的法律责任。百度提出三点主张:第一,人工智能既非自然人也非法人,不具备独立意志,百度仅提供中立技术服务;第二,百度未直接发布诽谤或侮辱信息,不存在主观过错;第三,“AI幻觉”是行业阶段性问题,难以完全消除,不应据此认定侵权。 黄贵耕律师对此回应称,“AI幻觉”不能当然成为免责理由,“技术中立”也不能替代平台应尽的审核与管理责任。为证明问题具有平台差异性,他使用豆包、腾讯元宝、阿里千问、DeepSeek等多个平台进行相同搜索,均未出现类似的严重虚假内容。该对比结果显示,虚假信息的产生并非生成式AI不可避免的结果,而更可能与特定平台的机制与治理措施有关。 四、问题的影响 该案反映出生成式人工智能在带来便利的同时,可能对名誉权、隐私权等基本权益造成损害。对律师、医生、公众人物等职业群体而言,一旦虚假信息被快速扩散,往往会直接冲击其专业信誉与经济利益;在信息传播更快、范围更广的环境下,这类风险继续放大。 同时,案件也凸显现有法律框架在应对AI侵权时的适配压力。传统名誉侵权认定通常强调行为人的主观过错,但在AI生成内容场景下,责任主体如何确定、过错如何认定、平台义务边界如何划分,仍存在不少待明确之处,给司法实践带来新挑战。 五、治理的方向 案件审理过程本身,也是对AI治理规则的一次现实检验。法院需要在考虑技术特性基础上,明确平台责任边界。关键问题包括:平台是否应对AI生成内容承担事前审核义务或更强化的事后治理责任;“技术中立”抗辩在何种条件下可以成立;如何在鼓励创新与保护权利之间建立可操作的平衡机制。 从黄贵耕的对比测试看,不同平台的生成结果差异明显,说明通过技术与管理措施降低虚假信息生成概率具有可行性。因此,平台难以仅以“AI幻觉不可避免”完全免责,而应优化模型与检索整合机制,完善内容治理与纠错渠道,并强化对高风险场景的识别与处置能力。 六、前景的展望 本案判决可能对AI产业产生示范效应。若法院认定百度承担相应责任,将进一步明确AI平台在内容生成与传播环节的法律义务,推动行业建立更严格的质量控制与风险治理标准;若法院支持百度部分抗辩,也需要在裁判逻辑中进一步厘清平台在何种情形下可以主张“技术中立”以及其适用边界。 无论结果如何,该案都表明,仅依赖技术进步与市场自律难以覆盖生成式AI带来的新型风险。完善法律规范、明确平台责任、健全监管与救济机制,已成为现实需要。主管部门也有必要加快推进AI治理的制度化进程,为新技术的应用与发展提供更清晰的规则预期。

技术进步应以权利保障为底线。生成式服务越普及、越便利,对真实性与可追责性的要求就越高。如何在创新与治理之间取得平衡,既需要企业把“可纠错、可解释、可追溯”纳入产品能力,也需要规则与司法实践持续细化责任边界,让信息环境更可靠、权利救济更顺畅、社会信任更稳固。