“把ai魔改”这种滥用乱象必须要治理好才行

2022年,这个时间点很关键,AI技术在这个时候迎来了大模型和开源生态的爆发。此时,要想通过一张照片和几秒语音合成一个“声形合一”的视频变得容易多了,这样的视频,哪怕是专业人士也很难用肉眼分辨真伪。早在2014年,生成对抗网络(GAN)的提出就为图像篡改奠定了基础。到了2017年,Deepfake因为炮制名人不雅视频被大家看到,虽然当时效果不太好,但是却让这门技术走进了大众的视野。2018年之后,FakeApp这类开源工具出现了,这让普通人使用起来也更简单。英伟达等公司的优化也让伪造的东西越来越逼真。技术本身虽然是中立的,但它的工具属性加上开源带来的私人性,使得滥用几乎是不可避免的。正是因为这样,AI换脸在电影制作或者虚拟主播这些好的用途中被广泛使用,同时也变成了诈骗和仿冒营销的工具。 对于检测技术来说,想要跟AI魔改视频的制作能力赛跑太难了。现在“1分钟无痕对口型”这种服务在电商平台上报价只要几百元,已经形成了一条灰色产业链。另一方面,现有的检测器在复杂的场景里准确率可能从90%跌到60%,犯罪分子甚至可以通过本地运行开源模型或者修改素材来躲避平台的审查。 平台治理也是个大难题,单个平台单打独斗根本没用。因为侵权视频会在多个平台之间互相传播,而且小型造假工具和开源模型通常都不在监管体系里面。这时候需要行业里大家一起行动起来。虽然有些头部平台已经建了名人肖像保护库并且处理了很多侵权内容,但治理难度还是很大。 这次事件还把CRC、RWA这些项目给暴露出来了。这些项目早就被多地监管部门警告涉嫌非法集资了,可他们还在用AI换脸技术继续骗人。类似的事件背后往往隐藏着非法集资、诈骗这些更严重的问题。我们应该把这些侵权行为当作深挖犯罪链条的线索去追查。只有把民事追责和刑事侦查结合起来才能起到震慑作用,说不定还能有意外收获呢。 李连杰、姚明这些名人也没逃过一劫,他们的名字都被卷入了类似的虚假营销里。王劲松在微博上说太可怕了,声音口型完全看不出真假。起因是他发现自己的影视片段被人恶意截取后又用AI深度伪造技术合成了肖像和声音去做理财广告的代言人。 这一系列的技术进展和法律惩戒都在给我们敲响警钟:“AI魔改”这种滥用乱象必须要治理好才行。“把AI魔改”给管起来吧!