问题——生成式搜索输出失真,名誉侵害风险凸显 近日,一起围绕生成式搜索内容的名誉权纠纷受到关注。原告为执业律师,称某平台的生成式搜索中输入自己的名字后,系统自动生成多条涉及"伪造担保函""刑事犯罪""被除名"等指控性表述。这些内容与事实不符,具有明显贬损性,导致其声誉受损。原告因此提起诉讼,要求平台停止侵害并承担相应责任。 平台上则以"技术工具"为由进行辩解,认为系统本身并非直接实施侵权行为的主体。争议焦点由此落在:当生成式搜索在无可靠依据的情况下"拼接"出负面事实,平台是否构成侵权,若构成侵权应承担何种责任。 原因——"概率式生成"遇上信息生态失序,虚假叙事看似可信 生成式搜索不同于传统链接呈现,其特点在于对海量语料进行归纳、推断与表达,输出往往以"结论式表述"出现,更容易被用户当作权威信息接受。一旦训练数据中混入旧闻误读、低质搬运或谣言碎片,而模型又缺乏足够的事实核验与来源追溯机制,就可能出现"以真带假""以偏概全"甚至无中生有的情况。 另外,部分产品在追求响应速度和覆盖面时,容易忽视个人身份、职业、涉法涉诉经历等敏感信息的高风险属性。生成内容常以自然语言组织成"故事",使得错误更具传播性和伤害力。归根结底,这是技术路线、产品设计与平台治理能力之间不匹配的表现。 影响——不仅是个案维权,更关乎数字社会的信任基础 名誉权纠纷的直接后果是受害者在职业信用、社会评价乃至现实业务中可能遭遇不利影响,维权成本高、举证难度大。更深层的影响在于,若"生成式造谣"难以及时纠错,将削弱公众对信息平台的信任,进而影响正常的社会交往与市场交易。 对平台而言,若缺乏可控的内容安全与纠错机制,将面临更高的合规风险、诉讼压力和品牌损害。对治理层面而言,新型内容生产方式不断涌现,传统"发布者—转载者—平台"的责任划分需要重构,司法裁判尺度与监管规则也需要更明确的可操作指引,以避免"无人负责"或"一刀切压缩创新"的两难局面。 对策——压实平台主体责任,建立可追溯、可纠错、可预防的治理闭环 从权利救济角度看,对涉及具体自然人的指控性内容,平台应当承担更高的注意义务。一是完善来源标注与证据链提示,明确生成结论来自何处、依据何在,避免"凭空断言";二是建立敏感信息交叉验证机制,对"违法犯罪""被处分"等高风险表述设置更严格的触发条件,缺乏权威来源则应限制输出或改为提示性表达;三是畅通投诉与更正通道,明确处理时限与反馈机制,对经核实的不实内容及时删除、屏蔽并采取必要的消除影响措施;四是强化内部审计与外部监督,对高频错误类型开展专项治理,形成模型迭代与治理规则同步更新的常态化机制。 从法治完善角度看,有必要在现有法律框架下继续细化责任认定。区分平台"被动承载"与"主动生成"的不同形态,明确在生成式服务中平台对内容风险的可预见性、可控制性与处置能力,从而确定过错程度与责任范围。对于造成实际损害的,应依法支持合理的损失赔偿,并通过典型案例形成可预期的裁判规则。同时,应推动行业形成统一的风险分级与技术标准,让平台在合规边界内创新。 前景——技术快速演进呼唤规则同步升级 随着智能化应用深入生活场景,面向公众的生成式服务将更频繁触及个人权益、公共安全与社会秩序。类似纠纷将从"搜索生成"扩展到问答、客服、内容创作、智能终端等更多环节。未来治理重点不在于否定技术,而在于建立与之相匹配的责任体系和防护能力:让系统在输出前"多一道核验",在出错后"快一步纠偏",在风险面前"守住底线"。 司法裁判、行政监管、行业自律与社会监督需要形成合力,通过规则明确性提升市场确定性,通过技术透明度提升公众信任度,推动新技术在法治轨道上健康发展。
这起案件反映出数字化转型中的深层法治问题:当技术创新速度远超法律更新周期时,如何平衡发展效率与权益保障?正如参与立法的专家所言,"科技向善不仅需要伦理约束,更需要制度保障"。在推动人工智能产业发展的同时,加快构建与之相适应的法律框架——既是对公民权利的必要保护——也是实现科技强国战略的重要基石。随着《人工智能发展促进法》等专项立法的推进,我国有望形成更具前瞻性的技术治理体系。