生成式AI侵权案开庭 百度为"AI幻觉"辩护 律师追问平台责任

近年来,生成式AI搜索、问答、写作等场景广泛应用,但也引发了内容真实性与权利保护的新问题。本案中,原告称在使用某平台检索时,生成式功能自动展示多条涉及他“严重违法犯罪”的负面内容,涉及的信息还被转发至其客户及家属,导致其职业声誉受损、执业活动受到影响。原告已提起诉讼,要求停止侵权、澄清事实并道歉,同时索赔职业信誉损失及精神损害赔偿。目前,法院已受理此案并开庭审理。 争议焦点: 本案的核心争议在于生成内容的来源、形成机制及责任归属。原告提供的证据显示,涉案内容疑似通过错误拼接新闻报道、公文等公开信息生成,例如将“黄某”“当事人黄某”等表述直接替换为原告姓名,从而虚构事实。被告则辩称,生成式系统仅基于自然语言处理技术整合信息输出内容,并非具有主观意志的“发布者”;相关错误属于技术发展中的“幻觉”现象,可能与用户高频检索等因素有关,平台不存在主观过错或侵权故意。 需要指出,生成式AI的“拟真表达”容易误导用户:当输出内容以确定语气呈现,并附带条目化的“罪名”“案由”等结构时,公众更难辨别其真实性。若缺乏有效的溯源、提示和纠错机制,错误信息可能在传播中被放大,最终损害个人名誉和社会信任。 影响分析: 1. 个体权益受损:涉及刑事犯罪的虚假信息一旦传播,可能对当事人的社会评价、职业信誉及合作关系造成长期负面影响。尤其对律师等依赖声誉的职业群体,错误信息可能引发连锁反应,动摇客户信任。 2. 平台治理压力增加:生成式AI在提升信息效率的同时,也需承担更复杂的责任。若平台对敏感内容缺乏分级管理或校验机制,可能加剧社会对技术产品的质疑,阻碍行业健康发展。 3. 司法裁判新挑战:此类案件涉及技术中立与平台责任的边界、算法输出与侵权认定的关系等问题,如何在创新与权益保护间平衡,考验司法精细化治理能力。 解决方向: 为降低虚假信息的系统性风险,可从以下上完善治理: 1. 加强内容校验与提示:对涉及自然人犯罪或重大失德的内容,提高触发门槛,优先引导用户查看权威来源,并对不确定信息显著标注。 2. 完善溯源与证据留存:确保生成内容可追溯,保留日志记录,便于纠纷发生时快速核验和纠错。 3. 优化纠错与救济机制:针对名誉权等纠纷,设置便捷申诉通道,明确处理时限,及时下架或更正错误内容,避免重复侵权。 4. 建立行业合规标准:围绕“敏感人名+犯罪指控”等高危组合制定红线清单,定期评估误伤率与纠错效果,控制风险外溢。 未来展望: 随着生成式AI从工具演变为“信息入口”和“内容分发节点”,其责任边界将更清晰。技术创新需留足空间,但对可预见的风险不能回避。未来司法可能重点关注平台是否履行合理注意义务、是否具备有效纠错机制等。对企业而言,竞争重点将从“速度”转向“准确性、可验证性与可纠错性”。

当技术创新与社会伦理碰撞时,平衡发展与权益保护成为数字时代的关键课题。此案不仅关乎个案公正,也将为中国互联网平台治理提供重要参考,其裁决或重新定义技术企业的社会责任范围。