王劲松指责ai换脸技术过于逼真

王劲松在2月26日通过社交平台发声,指责AI换脸技术过于逼真。他直言,“视频、声音和口型完全看不出真假”,微信视频号已经成为被盗用和被AI合成的目标。就连靳东都曾被假冒,江西一位65岁的女士差点因为“拍电影”贷款200万。王劲松担心自己的视频被用于诈骗,甚至连家人都分不清真假。 最高人民法院发布声明指出,诈骗手段越来越智能化和隐蔽性强,“AI换脸”和“深度伪造”提升了作案成功率。在典型案件中,还有冒充孙子的声音诈骗独居老人。法律方面,《民法典》第1019条明确禁止利用信息技术伪造侵害肖像权,《网络安全法》也在2026年1月1日开始施行,强化AI风险监测与安全监管。 宁夏有人被假冒老板视频骗走二十万,湖北老人被假冒亲属电话骗走六万。骗子利用熟悉的脸和声音绕过用户警惕,青海还有男子被“AI换脸美少女”诱骗转账20万。平台层面已经采取行动,集中处理了一批利用AI假冒公众人物吸粉牟利的账号。 温峥嵘自曝自己被AI“分身”多开直播带货,全红婵、孙颖莎、王楚钦的声音被克隆推销产品。刘涛、张柏芝、舒淇等明星的“AI站台”制造了虚假繁荣。这次事件不是娱乐花边新闻,而是未经授权的肖像与声音被商品化的现实。 对于普通人来说,防止诈骗是最直接的办法。家庭可以约定不通过电话视频转账,涉及钱款必须线下核验。这个铁规矩可以让用户避免成为受害者。 法律落地困难的主要原因是技术迭代快、证据链难固定、跨平台扩散速度快,维权成本高。只要匿名养号还便利,平台的合规和风控滞后,骗子就能反复作案。 针对高风险场景如“明星祝福”、“老板指令”、“亲属急转账”,需要做专门拦截与延迟机制给用户一个冷静窗口。同时建立权威认证矩阵统一对外渠道并声明合成禁用也是必要的措施。 对于“AI换脸”、“深度伪造”等技术滥用问题,平台该上“深度伪造水印”和“实人认证”的双保险来保护用户权益。 最后,王劲松这番发怒是为了所有人的安全敲响了警钟:“AI是好工具,但它必须被规则和责任拴住才能给生活添光。”这次事件告诉我们,“安全就在身边”的确定感需要技术、平台、法律和用户共同努力来实现。