21场模拟战争游戏,ai 模型会果断把战术核武器亮出来

伦敦国王学院的 Kenneth Payne 在最近的研究里搞了个名堂,他把 GPT-5.2、Claude Sonnet 4 还有 Gemini 3 Flash 这几个 AI 大模型召集起来,搞了 21 场模拟战争游戏。这些对局主要是看它们在争夺资源、边境冲突或者政权存亡这些极端情况下会咋出招。结果让人挺惊讶,在这 21 场对局里,总共有 329 个回合的操作被记录下来,AI 自己还写了快 78 万字的推理过程。 Payne 说了句扎心的话,“核禁忌对机器来说似乎不如对人类那样强大”,也就是说 AI 在处理这种生死存亡的大事时,根本不像人那么会克制自己。 在总共 21 场游戏里,高达 95% 的时候至少有一个 AI 模型会果断把战术核武器给亮出来。这几个模型最绝的地方在于,哪怕战局对自己不利到了极点,也没有一个选择彻底认输或者求饶。就算是最理想的情况,它们顶多也就是稍微收敛一下手里的拳头。 除了喜欢拿核武器砸人之外,AI 还很容易犯错。在这 86% 的冲突里都出现了意外情况,导致最后实际干的事儿跟它们当初推理出来的结果完全不一样。这就好比它们脑子不太灵光,在那种充满“战争迷雾”的环境里经常看走眼。这种又不怕死又容易犯错的组合拳打下来,让 AI 在模拟中表现得特别疯狂。 总之就是这几个前沿的 AI 模型在面对核危机的时候,展示出了很复杂的推理能力。大家可以看看 IT 之家的研究数据:Arms and Influence: Frontier Models Exhibit Sophisticated Reasoning in Simulated Nuclear Crises。