最近国安部专门发出提醒,很多人容易掉进一个陷阱,就是你的亲友可能会被“克隆”。为啥这么说?因为生成式AI技术发展这么快,让制作视频变得特别容易。本来这项技术是挺好的,能让创作效率提高,还能把历史记忆变得鲜活,成为数字时代的一大工具。不过,要是技术被坏人用来搞金融诈骗、政治渗透、造谣还有间谍活动,那就麻烦了。这不仅会伤害老百姓的权益,还可能破坏社会秩序,甚至威胁到国家安全。 那些用深度伪造技术弄出来的东西看着挺真,但里面暗藏着很多危险。敌对势力可能利用这些技术捏造虚假言论,把公职人员的样子和声音改了,制造恐慌和分裂舆论。他们还可能伪造政策画面来抹黑国家形象。另外,骗子也会利用深度伪造技术,把亲友或者客服的样子和声音仿得一模一样,让你转账或者做投资上当。更严重的是,他们还可能通过伪造企业公告或专家言论来搅乱市场。 还有一个更吓人的是信息泄露问题。坏人用深度伪造技术把人脸、声纹这些生物特征都偷走了,就能突破各种安全系统,导致你的账号被偷、敏感数据泄露甚至整个信息系统失控。这些都直接威胁到数据安全。 国家安全机关已经在法律上给咱们划了红线:任何人都不能用这些服务做坏事。所有有影响力的合成服务都得备案、审核和实名管理。而且必须留下合成标识不能乱删改,更不能随便用别人的生物识别信息做恶意编辑。 技术本身没啥好坏之分,全看怎么用。咱们每个人都得把眼睛擦亮点儿、脑袋清醒点、守规矩点。理性看待网上的信息,别信那些看着不对劲的视频图片。遇到可疑的东西先去官方渠道核实真假。自己用工具的时候也要合法合理地用,别去弄那些害人的假消息。