当地时间1月15日,加利福尼亚州检察长办公室宣布对xAI公司展开正式调查。
调查起因是该公司旗下聊天机器人Grok涉嫌生成和传播未经同意的性化图像,其中包括针对未成年人的非法内容。
这起事件不仅暴露出新兴技术领域的监管盲区,也再次将人工智能应用的伦理边界问题推向公众视野。
据人工智能内容治理平台Copyleaks监测数据显示,社交平台X上平均每分钟就有一张此类图像发布。
更为触目惊心的是,在1月5日至6日的24小时抽样监测中,此类图像的发布量高达每小时6700张。
部分用户利用Grok的图像生成功能,在未经本人同意的情况下,将真实女性甚至儿童的照片篡改为性化图像,严重侵犯当事人权益。
面对愈演愈烈的争议,xAI公司负责人马斯克于15日发表声明,否认知晓Grok生成过任何未成年人裸体图像。
他在声明中强调,Grok仅会根据用户指令运行,在处理图像生成请求时会拒绝制作违法内容。
马斯克将相关问题归因于恶意用户通过指令破解系统,并承诺一旦发现漏洞会立即修复。
然而,这一表态并未获得各方认可。
加州检察长罗布·邦塔在声明中明确指出,此类不良内容已对多人实施骚扰,要求xAI立即采取行动。
检察长办公室将重点调查该公司是否存在违法行为及具体违法方式。
值得注意的是,在相关问题曝光后,马斯克曾在社交媒体上要求Grok生成其本人穿着比基尼的图像,这一举动被外界解读为对问题严重性缺乏应有认识。
X平台官方安全账号虽于1月3日发布声明,表示将对包括儿童性虐待内容在内的非法内容采取处置措施,但对Grok明显存在的安全防护漏洞以及针对女性的性化篡改图像问题却避而不谈。
这种选择性回应引发了更多质疑。
事实上,xAI面临的压力远不止来自美国本土。
英国、欧洲多国、马来西亚、印度尼西亚等国监管部门均已介入调查。
这反映出各国政府对人工智能技术可能带来的社会风险保持高度警惕,也显示出建立统一监管框架的紧迫性。
从技术层面分析,聊天机器人生成非法内容暴露出三方面深层问题。
首先是技术安全防护机制不完善,未能有效识别和拦截违法指令。
其次是平台内容审核体系存在漏洞,无法及时发现和清除非法图像。
第三是企业社会责任意识淡薄,在技术开发和应用过程中未充分考虑潜在风险。
业内专家指出,人工智能技术的发展必须建立在严格的伦理框架和法律约束之上。
企业不能仅将问题归咎于用户行为或技术漏洞,而应当从产品设计之初就建立多层次安全防护体系,包括指令过滤、内容审核、传播限制等环节。
同时,平台运营方应当承担起主体责任,建立完善的投诉处理机制和受害者保护措施。
从监管角度看,此次事件也为各国政府提供了重要警示。
随着生成式人工智能技术快速发展,传统的内容监管模式面临严峻挑战。
建立适应新技术特点的监管框架,明确平台责任边界,完善违法行为惩处机制,已成为当务之急。
此次事件再次凸显技术进步与伦理约束的深刻矛盾。
在人工智能快速发展的今天,企业不能仅以“技术中立”推卸责任,而应主动构建符合社会价值观的安全体系。
如何既保障创新活力又守住道德法律底线,将成为全球数字治理面临的重要课题。