问题——“真人感”外衣下的生成合成内容混入日常信息流。记者梳理发现,一些账号以“生活照”“日常自拍”等形式发布高度仿真的人物图片,通过相似的模板化面孔、固定光影和滤镜风格快速塑造“人设”,并主页标注身高体重、性格标签等信息增强可信度。部分内容未作明显标识,普通用户难以分辨真伪。另外,围绕生成合成内容的举报、核验与处置也在推进:有用户长期举报疑似未标注的生成合成图片,部分作品被限制推荐、部分账号被处置——但也存在审核覆盖不足——或处置后缺少稳定、醒目的标识提示等情况。更值得关注的是,一些账号在积累一定关注度后开始接广告、带货推广,使“内容真伪”更延伸为“商业合规”问题。 原因——技术门槛下降与流量激励叠加,催生“低成本起号”。一上,生成合成工具迭代加快,普通用户借助现成模板即可生成质量较高的人物图像,再叠加滤镜、后期微调和噪点处理,提高“真实感”,也增加平台自动识别难度。另一方面,短视频与图文平台的算法分发更容易放大高颜值、强情绪、强人设内容,一些运营者据此以较低投入反复试错“起号”,期待快速获得关注。还有业内教程建议通过修补细节、混合真人配音等方式降低被识别概率,形成“对抗式优化”。此外,部分中小品牌预算有限时更倾向选择报价较低的账号投放,为这类内容商业化提供了需求支撑。多重因素交织,推动未标注的生成合成内容形成“生产—包装—变现”的链条。 影响——从信息污染到消费误导,风险呈复合化扩散。对用户而言,未标注的生成合成内容容易造成认知偏差,削弱社交互动的真实基础,带来“情感误导”“信任透支”等体验损害。对市场秩序而言,若将生成合成形象用于带货、广告展示,一旦展示效果与实物存在明显差异,可能影响消费者对商品品质、功效、外观的判断,进而侵害消费者知情权与公平交易权。对平台生态而言,虚假人设与批量化内容挤占正常创作者的传播空间,存在“劣币驱逐良币”的风险,不利于内容行业的良性竞争。对治理层面而言,内容识别、标识执行、违法取证与责任边界仍在磨合期,若缺乏统一且可操作的制度与技术协同,容易出现“标识不到位、处置不一致、复发成本低”的反复。 对策——以标识义务为抓手,形成平台、内容生产者与商业主体协同治理。法律界普遍认为,生成合成内容治理的关键在于“可识别、可追溯、可问责”。按有关规定,发布生成合成内容应主动声明并使用平台提供的标识功能;未按要求标注本身可能构成行政违法,也可能成为后续承担广告合规与侵权责任的起点。围绕此逻辑,可从三上发力:其一,平台应完善“事前提示—事中校验—事后追责”闭环,发布环节强化标识提醒并推动默认开启,在推荐与商业合作环节对未标注内容设置更严格的准入门槛;对多次违规账号可采取限制传播、暂停商业权限等措施,提高违规成本。其二,内容生产者与MCN机构应建立内部合规清单,明确生成合成内容的标识规范、版权与肖像权风险评估、商业推广的证据留存要求,避免“先做大再补票”。其三,品牌方与广告主应强化尽职调查,将“是否生成合成、是否显著标识、是否存在夸大展示”纳入合作条款与审核流程,避免因低价投放引发连带风险。与此同时,监管与行业组织可推动统一标识样式、位置与可读性要求,减少“形式化标识”导致的识别度不足。 前景——标识新规落地将加速行业洗牌,合规与真实将成为流量的长期底座。随着生成合成内容标识有关规定即将施行,未标注的“擦边”空间将进一步收窄,平台也会加快产品能力升级与规则细化。可以预见,短期内平台将经历识别技术与运营策略的磨合:一上需提升对对抗性处理内容的识别准确率,另一方面要在创作自由与公共利益之间把握尺度,避免“一刀切”误伤正常创作。长期看,显著标识有助于建立更清晰的内容分层:创作者可在透明框架下进行虚拟形象表达,用户也能在知情前提下自主选择观看与消费。由此,内容生态有望从“真假难辨的流量竞争”转向“合规透明的价值竞争”。
虚拟博主乱象的出现,折射出AI技术发展与社会治理之间的时间差。一方面,AI生成内容的门槛持续降低、应用场景不断扩展;另一方面,对应的法律制度与平台规范仍在完善。新规施行为该领域规范化提供了法律依据,但关键仍在落地执行。平台、创作者与消费者都应认识到,诚信与透明是内容生态稳定运行的基础。只有把标识要求落到实处,配合有效审核与有力执法,才能让AI技术真正服务社会,而不是被用于误导与欺骗。