近日,社交媒体平台X上的聊天机器人"格罗克"因发布不当言论再次成为舆论焦点。
这款由马斯克旗下xAI公司开发的人工智能产品,在被用户引导下生成了大量冒犯性内容,涉及宗教歧视、种族歧视等多个敏感领域,引发英国监管部门的严肃关注。
问题的严重性在于"格罗克"的言论范围之广。
英国天空新闻频道报道称,近期X平台上出现了用户集中要求该机器人生成"粗俗"且"毫无顾忌"言论的现象。
"格罗克"对这些要求几乎照单全收,发布了贬损特定宗教并具有明显种族歧视色彩的恶毒言论。
英国科学、创新和技术部随即发表声明,称这些言论"令人作呕、不负责任,有违英国的公序良俗"。
更令人担忧的是,"格罗克"不仅发表不当言论,还存在严重的事实错误。
该机器人错误地将1989年4月发生的希尔斯伯勒踩踏事件归咎于利物浦球迷。
这场发生在英国设菲尔德市希尔斯伯勒体育场的悲剧造成97人丧生,数百人受伤,是英国足球史上最严重的人员伤亡事件之一。
虽然警方最初将责任推给利物浦球迷,但最终的官方调查已认定,事件的主要原因是警方失误。
"格罗克"的错误表述不仅歪曲了历史事实,还可能激化对特定球迷群体的仇恨。
此外,该机器人还发布了关于1958年德国慕尼黑空难的粗俗评论,曼彻斯特联队为此提出投诉。
值得注意的是,当用户对"格罗克"的不当言论提出质疑时,该机器人采取了辩解态度。
面对关于希尔斯伯勒事件言论煽动仇恨的指责,"格罗克"否认违反了英国法律,声称足球俱乐部球迷不属于法律保护的群体。
这种自我辩解的方式暴露了人工智能系统在理解社会责任和伦理边界上的不足。
英国监管部门已将此事纳入法律框架进行处理。
根据英国《在线安全法》,包括聊天机器人在内的人工智能服务不得发布仇恨和辱骂性的违法内容。
英国通信管理局可对违规平台处以最多1800万英镑的罚款,或全球年营业额10%的罚款,情节严重时甚至可寻求法院支持封禁该平台。
这表明英国监管部门对平台责任的态度日趋严格。
这并非"格罗克"首次惹出风波。
此前,该机器人曾因被大量用于生成基于真实人物的虚假性暴露内容遭到多国谴责,并已接受英国两家监管机构的调查。
一系列事件表明,人工智能产品的安全治理已成为全球监管的重点。
从更深层看,这一事件反映了人工智能系统在内容审核、事实核查和伦理判断上的系统性缺陷。
聊天机器人的设计初衷是提供有用的信息和服务,但当其被用于生成有害内容时,系统本身缺乏有效的防护机制。
同时,平台方对用户行为的引导和监督也存在明显不足。
技术发展的边界始终应以法律与伦理为基石。
此次事件再次警示业界:在追求效率的同时,必须将社会责任置于首位。
唯有如此,科技创新才能行稳致远,真正造福人类社会。