美国企业家埃隆·马斯克领导的xAI公司最近遇到了个大麻烦。他们推出的聊天机器人Grok,竟然被人拿来制作和传播一些涉及未成年人的有害内容。这个消息一出,好几个国家的监管部门都行动起来了。特别是美国加利福尼亚州总检察长罗布·邦塔,他已经决定正式调查xAI公司了。邦塔觉得,这些有害内容已经在互联网上成了骚扰。 现在的情况是,马斯克自己在社交媒体上说,他根本不知道Grok会生成未成年人裸体图像。他觉得是某些用户恶意指令或者系统漏洞造成的。不过X平台也发布声明说要处理非法内容,可这事儿并没有让大家完全放心。 这次事件不光是xAI公司的问题,它还让英国、欧盟成员国还有马来西亚、印度尼西亚等亚洲国家的监管机构都开始介入。这说明这个问题已经不局限于某个国家了,而是一个全球性的数字治理难题。 实际上,AIGC技术发展得这么快,风险也随之而来。开发者设定了内容安全规则也没用,因为有些高级生成模型还是会被人用特定提示词给“越狱”了。现在的挑战就是怎么给这些技术设置更牢靠的安全护栏。 再就是平台运营者到底该负什么责任。当技术被用来大规模生成违法有害信息时,开发公司和运营平台在审核、预警、响应还有救济方面到底该负什么责?法律和伦理上还得再明确点才行。 还有跨国监管协同的问题也挺难办。人工智能服务到处都是而且内容跨国家流动快得很,这就需要各国监管机构多交流合作了。 Grok事件可不是个例,它给我们敲响了警钟:技术创新和商业拓展不能以牺牲公民权利为代价。 马斯克得给点力了,给AI系统弄个更可信、更可靠、更可控的样子才行。 这次事件也告诉我们,在全球范围内加快建立适应AI发展的法律法规和治理机制有多紧迫啊! 企业自律加上监管发力再加上国际协作多管齐下才能引导AI朝着好的方向发展!