深度伪造技术滥用引关注 名人肖像遭盗用暴露AI诈骗新趋势

一、问题:伪造之真——肉眼难辨 2月26日——演员王劲松通过社交平台公开发声,称其形象遭人利用技术手段伪造,被拼接成一段宣传所谓投资项目的推广视频,并在微信视频号上广泛传播。视频中,其口型与声音均经过高度仿真处理,素材来源于其2020年参演的影视作品。王劲松表示,"完全看不出真假",连家人一度也无法辨别真伪。 这并非孤立事件。近年来,李连杰、姚明、于和伟、唐国强、温峥嵘、周星驰等多位知名演员,均曾遭遇形象被深度伪造并用于商业推广或诈骗活动的情况。2025年,演员温峥嵘发现多个非法直播间盗用其形象带货,感叹"我现在很难证明我是我",随后报警立案,对应平台下架侵权视频逾万条。2026年初,周星驰工作室亦就其形象遭伪造用于短视频带货一事公开发声,呼吁平台加强管控。 二、原因:低成本犯罪借技术之名蔓延 此类事件频发,根源在于违法成本与违法收益之间存在严重失衡。 从技术层面看,生成式内容工具的使用门槛持续降低,普通用户借助公开可获取的工具,即可完成对人脸、声音乃至口型的高度仿真合成,技术壁垒已不再是犯罪的有效屏障。 从平台机制看,现有内容审核体系对深度伪造内容的识别能力仍存在明显盲区。王劲松投诉后,相关视频虽被删除,但侵权者随即更换账号、转移平台,次日相关公众号文章阅读量已超三千,直至中午方被屏蔽。"删除"仅是暂停,而非止损,平台的被动应对客观上为侵权行为提供了低风险的操作空间。 从法律层面看,现行法规对生成式技术滥用的连带责任认定尚不明确,证据采信标准与惩戒力度均有待完善。以此前"假靳东"案为例,涉案团伙诈骗金额逾31万元,为首者仅被判处三年有期徒刑并处罚金五万元,震慑效果有限。 三、影响:信任危机蔓延,普通公众首当其冲 此类事件的危害,已远超单纯的肖像权侵害范畴。 对当事人而言,名誉损失难以量化。明星本人不仅须承受被误解"参与圈钱"的舆论压力,还需耗费大量精力反复澄清。演员靳东曾就此类问题在政协会议上提案,呼吁监管部门加大力度,折射出当事人维权之艰。 对普通公众而言,受害风险更为直接。骗子刻意选择口碑良好、形象正面的演员作为"信任背书",正是因为这类人物在观众中积累了长期的情感信任。"假靳东"案中,受害者张某前后被骗近二十万元,受害群体以中老年人为主,其辨别能力相对薄弱,损失往往更为惨重。 从更宏观的视角审视,深度伪造技术的滥用正在系统性地侵蚀公众对数字内容的基本信任,其潜在危害已超越个案层面,构成对社会信息生态的结构性威胁。 四、对策:平台、监管、个人三方协同发力 应对该问题,需要平台、监管机构与普通用户形成合力。 平台层面,应将技术防线前置。深度伪造检测、合成内容强制标识、数字水印溯源、账号实名与黑名单联动等机制,应尽快从"选配项"升级为"标配项"。涉及"投资""理财""数字金融"等敏感词汇的内容,应触发更高级别的风控阈值,实现人工复核、账号冻结与线索移送的联动处置,而非以"删帖"作为处理终点。 监管层面,立法与执法均需提速。相应机构应尽快明确肖像权与声音权在数字环境下的侵害认定标准,补齐生成式技术滥用的连带责任规则,提高违法成本,使惩戒效果真实可感。跨平台协同追责机制的建立,亦是遏制侵权行为"打一枪换一个地方"的关键所在。 公众层面,防骗意识的提升同样不可或缺。凡遇名人推介投资项目,应第一时间通过官方认证账号核实;涉及转账汇款,务必拨打品牌方或工作室公开电话加以确认;对一切"稳赚不赔"的话术,应保持高度警惕,一律以诈骗嫌疑对待。 五、前景:制度与习惯,共同守住真实的边界 从技术发展趋势看,生成式内容的仿真程度将持续提升,单纯依赖人眼辨别的防骗路径已难以为继。未来的防线,必须建立在制度约束与平台责任的双重基础之上。 此外,公众人物自身也可探索"主动自证"机制,通过官方账号矩阵的常态化运营、作品片段的版权标注等方式,为公众提供便捷的真伪比对渠道,从源头压缩伪造内容的生存空间。

深度伪造带来的挑战,不在于技术本身有多"先进",而在于社会能否守住真实与信任的底线。让假的难以生成、难以传播、难以变现,让真的能够被迅速核验、得到及时保护,才是应对新型网络风险的关键。平台、监管、司法与公众共同抬高违法门槛、压缩灰产空间,才能不让"以假乱真"成为伤害普通人的捷径。