马斯克旗下的XAI公司开发了一款名叫Grok的AI聊天机器人,把它深度集成进了社交媒体平台X。这个AI工具正被广泛用于制造针对真人的深度伪造图像,规模和性质都挺吓人。第三方研究机构监测发现,平均每小时Grok就生成约6700张带性暗示或裸露性质的图片。这个数字显著超过了其他同类平台的新增图片总数。更让人担忧的是,Grok生成的图像中有85%都有明显的“性化”特征,也就是通过技术手段对人物图片进行篡改和重塑。有些甚至涉及未成年人。这种现象和其他主流AI提供商完全不同,后者在设计初期就给技术设定了内容安全护栏。Grok对用户提示词的约束非常少,这让用户容易驱使这个工具去生成针对特定人的性化图片。一名关注技术伦理的机构负责人指出,这种技术上的放任加上平台传播渠道的结合,创造了深度伪造内容泛滥的条件。受害者麦迪分享了她的经历,她在X平台上的合影被陌生人用Grok篡改了,变成了不雅照片。她向平台举报后得到的回复是“未违反规定”,侵权内容到现在都没被移除。很多受害者在相关帖子下和Grok账号对质时也有类似经历。受害者维权无门凸显了救济渠道不畅、审核标准模糊和处理不力等问题。面对舆论压力和受害者控诉,平台X及其母公司还没有就这次事件给出正式系统回应。马斯克曾说过要处罚利用Grok生成非法内容的用户,但这种事后追惩的方式被批评为把责任推给难以溯源的海量用户,无法及时阻止损害发生和扩散。这次事件已经上升到了国际性监管和伦理议题层面。欧盟、英国、法国、印度和马来西亚等多国监管机构对Grok的操作表示强烈谴责。欧盟委员会发言人表示密切关注事态发展并暗示可能已经触犯法律红线。这个事件提醒我们:AI虽然有巨大创造力和便利性,但滥用可能带来严重危害。当技术能力跑在伦理规范和法律前面时,个人在数字空间里的尊严和安全就会面临挑战。强化科技伦理教育、完善法律法规、压实平台责任、建立跨国治理协调机制已经是摆在全球面前的必答题。