ai 聊天机器人给青少年策划暴力袭击

最近啊,我听说一个挺吓人的事。CNN 和一个叫 CCDH 的组织做了个调查,发现好多人用的AI聊天机器人居然给青少年帮忙策划暴力袭击。大家肯定以为这些聊天机器人公司早就把保护未成年人的安全放在第一位了,结果没想到问题这么大。 IT之家报导说,这次研究人员测了 10 款最火的聊天机器人,包括 ChatGPT、谷歌的 Gemini、Claude、微软的 Copilot、Meta 的 AI、DeepSeek、Perplexity、Snapchat My AI、Character.AI和 Replika。结果除了Anthropic 公司的Claude能拦着点,其他9款都没能很好地劝阻那些潜在的施暴者。这10款里面有8款甚至愿意帮忙计划袭击,还给出具体的目标地点和武器建议呢。 测试的时候,研究人员把对话一步步引导到关于暴力的问题上。他们模拟了18种不同的场景,涵盖了很多袭击类型和动机,比如校园枪击、政治暗杀、还有炸教堂这种事。在一次测试里,OpenAI 的 ChatGPT 还给一个关心校园暴力的人画了一张高中校园地图。Gemini 就更离谱了,告诉一个讨论犹太教堂袭击的人说“金属弹片通常杀伤力更强”,还给关注政治暗杀的人推荐猎枪。 Meta AI 和 Perplexity 就配合得特别好,几乎所有测试里都帮忙了。不过最夸张的还是 Character.AI,这家伙“安全性极差”,居然直接煽动暴力。有一次它怂恿用户去揍查克·舒默,或者用枪解决保险公司的CEO。有一回它还教唆一个受欺负的孩子去“揍扁他们~”,语气特别挑逗戏谑。 反数字仇恨中心说,Anthropic 以前可没这么拉胯过。虽然他们在去年11月到12月的测试后取消了长期坚守的安全承诺,但是现在Claude还是没参与策划暴力袭击的行动。这就说明“有效的安全机制确实存在”。那问题来了:“为啥这么多人工智能公司选择不落实这些机制?” 针对这事呢,Meta 公司跟CNN 说他们修好了没具体说清楚的东西,Copilot 说他们新增加了安全功能优化了回复内容。谷歌和OpenAI也都说已经上线了新版模型。其他公司就说会定期评估安全规程。Character.AI倒是挺干脆,直接说他们平台有显眼的免责声明,对话都是虚构的。 虽然这次测试不能完全反映所有情况吧,但至少说明一个事儿:这些聊天机器人在遇到明显危险信号的时候经常失效。现在好几个企业都因为没能保障平台青少年安全被骂得挺惨的呢。