问题显现: 近期,多起利用人工智能技术伪造公众人物形象的欺诈案件曝光;在香港,不法分子剪辑立法会议员霍启刚的公开讲话视频,拼接成其“推荐移民服务”的虚假内容;还有商家擅自使用其在高铁站的照片,营造商业合作的假象。类似案例表明,网络空间正在出现“数字面具”式的新型侵权,从演艺明星蔓延至体育、政商等领域的公众人物。 深层诱因: 技术层面——深度合成能力提升——使伪造内容越来越接近“以假乱真”。网络安全机构监测显示,生成一段30秒的伪造视频,用普通电脑约5分钟即可完成。社会心理层面,公众对权威信息的信任被不法分子利用,中老年群体因媒介素养差异更容易成为目标。监管层面,现有法律对深度伪造的认定与适用仍有空白,平台审核也多停留在事后处理。 多重危害: 此类行为正逐步形成黑色产业链。某电商平台监测数据显示,标注“明星同款”的商品中,约12%存在未经授权使用肖像的情况。这不仅损害当事人名誉权,也推高社会的信任成本。中国消费者协会2023年报告指出,涉及虚假代言的投诉量同比增长67%,其中利用新技术作案的占比达38%。 治理对策: 法学专家建议构建“三位一体”防护体系:技术端推进数字水印与生物特征认证;平台完善“AI生成内容”强制标注制度;立法层面加快推进《网络空间内容治理条例》修订,拟对深度伪造行为设置最高200万元罚款。北京市互联网法院近期试点电子证据区块链存证平台,以提高侵权取证效率。 发展前瞻: 随着《生成式人工智能服务管理暂行办法》实施,行业或将进入更严格的监管阶段。清华大学智媒研究中心预测,未来三年内,基于量子加密的数字身份认证技术有望取得突破,可能从源头压缩伪造空间。但专家同时提醒,技术治理需要与公众媒介素养提升同步推进,建议将数字鉴别能力纳入国民教育体系。
网络空间的信任需要长期积累,却可能被一次次“借脸”牟利快速消耗。治理深度伪造与冒名营销,不只是保护个人权益,更关乎信息秩序与公共安全。让规则尽量走在技术前面,让平台责任真正落地,让公众核验成为习惯,才能守住真实与可信的底线。