全国首例AI生成错误信息侵权案宣判 法律认定平台需尽合理注意义务

问题——看似权威的错误信息如何产生?随着生成式工具在教育咨询、消费决策和公共信息检索中的广泛应用,一类新风险逐渐显现:系统输出的内容语言流畅、逻辑严谨,但事实层面可能出现偏差。更令人担忧的是,系统会用确定性的措辞表达这些错误信息,容易误导用户判断。近期一起案件就反映了这个问题:用户在查询高校报考信息时,系统提供了错误的校区信息。即使用户指出错误,系统仍坚持原答案,甚至自动生成"如有误将赔偿"的承诺。最终,用户以被误导为由提起诉讼。这起案件虽然起因于具体信息错误,却揭示了生成式内容在现实应用中的信任危机和责任认定困境。 原因——技术特性、数据局限与应用场景的复杂性共同作用。首先,生成式模型更注重表达的连贯性,而非事实准确性。当问题超出其知识范围、数据时效或缺少权威来源时,系统会基于现有语料"补充"答案,形成看似合理但不准确的回答。其次,训练数据和联网检索信息来源庞杂,可能包含营销内容、过时信息或未经证实的片段,导致系统将错误信息当作事实传播。此外,像高校招生这类信息具有强时效性和严谨性,细节变动频繁。如果缺乏权威数据对接和有效校验机制,误差在教育咨询等高敏感场景中更容易被放大。 影响——从信息错误到信任危机的连锁反应。具体到这起案件,错误的校区信息可能影响考生和家长的报考决策。更广泛来看,如果类似错误发生在医疗、金融或政务服务领域,造成的损害将更为严重。另一个值得警惕的风险是,不法分子可能利用生成式技术伪造语音、视频实施诈骗,或制造虚假言论干扰舆论。这些风险都指向同一个问题:当技术输出具有"拟人化"的可信外表,而用户又缺乏核验习惯时,社会信任体系将面临严峻挑战。 对策——在法律框架内建立"可核验、可提示、可追溯"机制。此次判决明确了两个关键点:一是智能系统不具备民事主体资格,其自动生成的"承诺"不具有法律效力;二是平台仍需承担合理注意义务,包括严格审查违法信息、显著提示内容可能不准确、确保基本功能可靠。治理层面需要多方协作:平台方应接入权威数据源,提升核验能力,优化高风险场景的处理机制,完善日志留存;用户需养成重要信息以权威渠道为准的习惯,对重大决策信息进行多方验证;监管部门和行业协会应制定标准化提示规则、数据来源标识、纠错机制等规范,形成可执行的治理体系。 前景——从"能生成"到"可信生成"的演进。随着生成式服务在公共服务和商业场景中的深入应用,社会对其准确性、可解释性和责任界定的要求将不断提高。未来的发展重点不应只是追求"更像人",而是要构建更可靠的信息服务体系:技术上提升事实核验和风险识别能力,产品上强化提示和纠错功能,制度上明确高风险应用的准入标准。通过技术创新、行业自律和法律保障的共同推进,才能在发挥技术优势的同时,最大限度降低错误信息对公众利益的损害。

这起案件为人工智能的快速发展敲响了警钟。我们在享受技术便利的同时,必须清醒认识到:技术创新要以法律为底线,以伦理为准则。当机器能够"一本正经地编造"时,人类更需要保持辨伪存真的智慧。未来的人工智能治理——既需要技术自身的改进——也离不开社会共治。只有这样,技术进步才能真正促进人的全面发展。