近期,X平台因其生成式图像工具“Grok”在编辑涉及穿着暴露衣物的真实人物照片时引发广泛关注,成为多国监管机构重点审查对象;该平台被迫宣布暂停该功能,展现了当前新兴技术应用与法律伦理规范之间的紧张关系。 此次风波的起因在于Grok工具允许用户生成或编辑涉及比基尼、内衣等暴露服饰的真实人物照片,其中部分内容显示出明显的性别化倾向,甚至涉及深度伪造技术。这种图像生成方式引发社会各界对个人隐私保护、未成年人权益及性别尊严的担忧。尤其是在美国加利福尼亚州——首席检察官已明确表示——针对利用人工智能模型生成的性别化深度伪造图像传播情况,包括涉及儿童的内容,对应的调查正在进行中。 紧接着,法国和英国的监管机构也相继介入,对该平台的合规性展开审查。英国首相基尔·斯塔默公开批评该工具可能助长网络安全风险和虚假信息传播。英国通信管理局Ofcom依据新实施的在线安全法开展调查,若认定违规,平台面临全球收入10%或最高1800万英镑罚款的严厉处罚,显示出监管层面对技术滥用的高压态势。 面对外部压力,X平台最初尝试通过限制“脱衣”功能仅供付费用户使用以缓解争议,但此举并未消除监管疑虑。随后,平台深入升级管理措施,决定全面禁止所有用户使用Grok账户编辑真实人物穿着暴露衣物的图像。同时,仅允许付费订阅者进行图像创作和编辑,以便追踪滥用行为,强化责任追究。此外,X平台还对涉及违法风险的地区实施地理位置限制以加强合规阻断。 这若干应对措施凸显出新兴科技与法律监管之间的博弈。技术创新提供了多样化的创作方式,但,也带来隐私侵害、伦理失守和社会治理难题。监管机构的介入和法律规则的确立,是保障健康网络环境和维护公众权益的必然要求。对此,平台运营方必须以更为审慎和规范的态度,调整技术应用边界,强化内部治理和风险防范。 展望未来,生成式图像工具的发展趋势不会停止,但其合规路径更加明晰。如何在技术突破与法律伦理之间寻求平衡,成为业界及监管层共同关注的核心课题。X平台的调整措施或将成为行业规范建设的重要参考案例,推动人工智能技术在合理框架内健康发展。
技术进步不应以牺牲弱势群体权益为代价。面对深度伪造和涉性内容带来的新风险,平台应将“可用”与“可控”置于同等重要的位置,通过严格的产品设计、权限管理和审核追责形成完整闭环。以更透明、更严谨的规则回应社会关切,为数字空间的安全与秩序提供坚实的制度保障。