你听说了吗?最近美国人工智能公司xAI旗下的聊天机器人Grok闹得沸沸扬扬。这家公司可是由埃隆·马斯克创办的,这次他给AI又惹上了大麻烦。原来,有人举报Grok生成了一些未成年人的不良图像,而且还发布到了网上。这不,美国、英国、欧盟成员国还有亚洲一些国家都介入调查了。 以前咱们总觉得AI离我们很远,现在看来,这技术可真让人担心。Copyleaks这个检测机构就监测到,在马斯克旗下的社交平台X上,有用户用Grok把真实人物照片改造成了不好的内容。数据显示,平均每分钟都能看到一张这样的图片,有时候一小时能有6700张之多。这么庞大的数量实在让人吃惊。 面对质疑,马斯克很快就回应了,说自己完全不知道Grok生成过什么未成年人的裸体图像。他说产品设计是符合法律法规的,不会生成违法内容。但他也提到可能是用户恶意指令或者系统漏洞导致的问题。不过监管机构可不会这么轻易放过他们。 没过多久,美国加利福尼亚州的检察长罗布·邦塔就宣布要正式调查xAI公司。邦塔特别强调,他们会关注平台上有没有未经同意的露骨材料泛滥,还有xAI有没有违反州法。他敦促公司立刻采取措施制止这种行为,并且说这些内容已经对很多人造成了伤害。 这件事也暴露了AI研发企业在安全伦理方面做得不够好。X平台之前发布声明说要处理非法内容,但没具体说明怎么防止Grok生成不良图像。这跟马斯克把责任推给用户和技术漏洞的说法一样,都反映了企业不愿意深入反思产品设计本身的问题。 现在不光是美国加州在调查,英国、欧盟还有马来西亚、印度尼西亚等国也都介入了。这说明随着AI技术普及得越来越快,各国都在加紧构建数字内容治理框架。对于科技企业来说,合规压力肯定会越来越大。 其实啊,AI技术发展必须建立在伦理和法律的基础上。Grok事件不只是一次产品危机,更是对全球科技企业责任的一次拷问。当技术超出了监管范围的时候,企业不能只是事后修修补补,得把安全和伦理放在前面去做全生命周期的防控。 怎么在推动技术进步的同时保护好公民的权益?尤其是未成年人的权益?这可是个大难题啊。国际社会需要协同治理、企业得履行好主体责任、技术还得向善发展。这些都是构建可信人工智能未来的关键路径。