近期,一起涉及AI模拟画像的案件法律界引起关注。据律师爆料,某盗窃案中检方将AI生成的"嫌疑犯"肖像纳入卷宗——虽未直接作为证据——但其高清逼真的形态对陪审团的心理暗示不容忽视。该事件触发了一个更深层的问题:在人工智能时代,如何在充分利用新技术的同时,确保司法程序的公正性和证据的真实性。 从技术原理看,AI模拟画像与传统手绘肖像存在本质区别。传统手绘依赖警察的专业经验、与目击者的反复沟通以及人为的逻辑判断,整个过程具有可追溯性和人为责任。而AI生成的肖像来自海量人脸数据训练形成的概率模型,其内部运算机制难以解释,属于典型的"黑盒子"技术。这意味着,AI生成的并非绝对的客观再现,而是"统计学意义上最接近描述"的推断结果。 现实中暴露的问题更加令人担忧。前述案件中,AI生成的肖像与监控画面相似度达到90%,但与真正的犯罪嫌疑人相似度仅为60%。这说明,高度的技术匹配度并不能保证司法事实的准确性。同时,有技术人士已经演示,利用公开大模型可轻易生成虚假人脸,这为犯罪分子提供了规避侦查的新途径。一边是公安机关试图借助AI提高侦查效率,另一边是不法分子可能利用同样技术逃避法网,形成了令人担忧的技术军备竞赛。 更深层的隐患在于心理认知的扭曲。粗糙的手绘画像会自然引发陪审团的"参考意识",但高保真的AI生成肖像往往被赋予"科学性"和"客观性"的光环。这种权威感的无形传导,足以影响法官和陪审团的独立判断,成为"沉默的证人"。当司法人员面对精美逼真的数字肖像时,他们是否真的能完全摒除这种技术带来的心理暗示,仅基于其他物证做出决断,这是一个严肃的疑问。 从国际经验看,多个国家已开始审视AI在司法领域的应用。美国、欧盟等地对算法透明度、可解释性提出了明确要求,对涉及人身权利的AI应用设置了严格的法律门槛。我国目前在这上的规范仍显不足,对应的的法律指引和技术标准亟待完善。 对策方面,专家建议AI模拟画像应被严格限定在警察内部侦查的辅助工具范畴。在进入司法程序前,必须经过严格的交叉验证、质证和法律检验。具体而言,应建立AI生成肖像的可追溯机制,明确说明其生成的数据来源、算法模型和置信度区间;建立独立的技术审查制度,由第三方机构对AI生成结果的科学性进行评估;制定明确的证据规则,规定AI生成肖像在法庭上的使用限制和披露要求;加强对陪审团的指导,帮助他们理解AI技术的局限性,防止技术权威感对司法判断的干扰。 同时,应加快推进相关法律制度完善。将AI应用的法律责任明确化,规定公安机关、检察机关在使用AI工具时的程序义务和说明责任;建立AI技术评估和认证制度,只有通过严格评估的模型才能用于司法领域;完善证人出庭制度,强化目击者证言的直接性和可质证性,防止AI肖像对证人证言的替代。
技术进步为司法带来新工具,也考验着程序正义的底线。对AI画像这类"高度仿真"的技术产物,更需要通过透明规范和制度约束,确保其在法治框架内发挥作用,避免技术表象干扰事实判断。