霍启刚公开谴责AI盗用乱象 专家呼吁加强技术滥用法律监管

问题:公众人物“被代言”“被发声”现象增多,误导性传播风险上升。3月23日,霍启刚在社交平台发文称,近期集中发现多条利用其形象与声线生成的仿冒视频,内容并非其真实表述,连身边工作人员也一度难以分辨。他表示,有账号将其此前涉及香港有关话题的公开视频二次剪辑加工,用来包装所谓“移民通道”等营销信息,担心公众误信后造成经济损失。评论区也有不少网友反映,短视频“真假难分”,一旦叠加热点议题与情绪化表达,更容易扩散。 原因:技术普及叠加流量利益,催生低成本“造假—传播—变现”链条。近年来,深度合成、声音仿制等工具快速普及,生成门槛不断降低,按模板操作即可批量产出逼真的音视频内容。在短视频平台推荐机制与商业变现驱动下,部分账号通过“蹭名人”“借权威”抬高点击率,进而带货、引流、导入付费社群,甚至实施诈骗获利。同时,跨平台搬运、频繁更名与矩阵化运作,使侵权内容出现“投诉下架后又重新出现”的循环。霍启刚称,过去半年仿冒内容明显增多,已处理数千条仍难遏制,甚至需要安排专人每日跟进投诉反馈,治理成本持续攀升。 影响:不仅侵害个人权益,也扰乱网络秩序,削弱社会信任。对当事人而言,仿冒视频可能带来名誉受损、形象被绑定、商业合作风险增加;对公众而言,仿冒内容借助“熟悉感”“权威感”降低警惕,更容易被用于虚假宣传与网络诈骗。此前,演艺领域也多次出现面容被仿造用于短剧、短视频的争议事件,引发当事人及粉丝维权。全国两会期间,多位文艺界人士谈及应对“换脸”与仿冒传播,强调遇到疑似诈骗应及时报警、依法维权,并呼吁行业正视新技术对内容生产与传播生态的冲击。 对策:以“平台治理+技术识别+法律追责+公众教育”形成闭环,提高违法成本与识别效率。一是压实平台主体责任,完善“生成内容标识、来源可追溯、违规快速处置”机制,对疑似仿冒公众人物的账号与内容加强审核、限流与处置,提升复核效率,减少“下架即复活”。部分平台已在视频生成服务中对明星、公众人物、网红等真实人物的肖像与语音生成设置更严格限制,体现风险前置管理思路。二是推动技术反制常态化,推广水印标记、指纹比对、语音与人脸活体检测等手段,支持权利人“一键取证、批量维权”。三是强化依法追责。法律界人士指出,未经许可将他人肖像、声音用于商业传播,可能构成对肖像权等人格权的侵害;若生成内容夹带虚假代言、不当言论并导致社会评价降低,还可能侵害名誉权。对以仿冒手段实施诈骗、非法获利的,应依法追究相关责任。四是加强反诈宣传与媒介素养教育,面向中老年人等易受影响群体,普及“核验来源、不轻信转账、不点陌生链接”等基本原则,降低受骗风险。 前景:治理将从“事后删除”转向“事前预防+全链条监管”,关键在规则完善与协同联动。随着深度合成技术持续迭代,仿冒内容的逼真度与传播速度仍可能提升,单靠个体投诉难以应对。下一步,平台、内容生产机构、技术服务商、监管部门及社会组织需加强协作:标准层面推动显著标识与合规审查,执法层面强化跨平台协查与证据固定,行业层面建立版权与人格权保护的快速通道,社会层面形成对合成内容保持审慎的共识。只有持续抬高侵权门槛与违法成本,才能让技术应用回到创新与便利的正轨。

从“换脸”到“克隆声线”,深度伪造正在不断突破信息传播的可信边界。治理重点不在于否定技术本身,而在于通过更清晰的标识、更明确的规则、更高效的追责,让造假者付出代价、让守法者得到保护。制度约束与技术治理同步推进,才能在创新与安全之间实现更稳妥的平衡。