“深度伪造”被用于绕过人脸核验牟利:绍兴一黄牛团伙非法买卖信息抢购茅台获刑

近年来,人工智能技术各领域加速应用,在推动数字化转型的同时,也带来了新的安全风险。浙江省绍兴市上虞区法院近日公布的一起案件,就直观呈现了AI技术被滥用可能造成的后果。案件涉及三名被告人。网络黄牛谢运为低价抢购茅台酒并加价转卖,从信息贩子赵令处非法购买3400多条公民身份信息,包括身份证号、手机号及560余张头像照片。技术人员张质利用AI换脸技术,将他人头像合成为带眨眼动作的动态人脸视频,用于绕过销售平台的人脸识别验证。通过这若干操作,谢运成功抢购60余瓶茅台酒,转卖后非法获利1.2万余元。张质因提供技术服务获利6000余元,赵令通过贩卖个人信息获利1万余元。2025年8月7日,法院对三人分别作出有罪判决。 这起案件折射出AI技术滥用的多重风险。其一,个人信息保护压力加大。身份证号、手机号、头像等敏感信息被非法交易,容易被用于实施违法犯罪。其二,生物认证并非“绝对安全”。人脸识别作为重要身份验证手段,广泛用于金融、安全等场景,一旦被AI手段绕过,不仅会影响平台交易安全,也可能波及门禁等关键系统,带来更高层级的安全隐患。其三,“深度伪造”能力被恶意使用。涉及的技术本可服务影视创作、游戏开发等正当场景,但被不法分子用于欺诈、破坏,风险随之放大。 从更广的视角看,AI滥用的影响正从国家安全层面延伸至社会经济运行的细节。国家安全部门曾披露,个别单位在使用开源AI框架过程中操作不当,导致内部敏感数据被境外IP非法访问并下载。境外反华势力也曾利用深度伪造生成虚假视频,试图在国内传播以制造舆论混乱。这些案例表明,AI技术的安全治理已成为维护国家安全与社会稳定的重要议题。 面对挑战,需要综合施策。一上,完善个人信息保护相关制度,加大对非法买卖信息行为的打击力度,从源头减少信息流入黑灰产。另一方面,推动生物认证技术加固与安全升级,提升人脸识别等系统的防护能力,降低被绕过的风险。同时,建立更清晰的AI使用规范与监管机制,明确企业和个人使用AI工具的责任边界,减少技术被滥用的空间。此外,加强公众安全教育,提醒谨慎提供和保存个人信息,提高对AI生成虚假内容的识别与警惕。

这起案件的侦查与审判,为打击技术型犯罪提供了参考,也再次提醒个人信息安全与国家安全不容忽视。在数字化深入发展的背景下,只有技术防护、法律规制与社会治理形成合力,才能更有效应对新型风险,守住发展与安全的底线。