“战争迷雾”会让ai 变得更加好斗

快科技2月27日播报,伦敦国王学院的肯尼斯·佩恩教授带队搞了个兵推,把OpenAI的GPT-5.2、Anthropic的Claude Sonnet 4还有Google的Gemini 3 Flash这三款顶级AI大模型都请来了,模拟了边境纠纷、抢资源、保政权等各种极端紧张的国际局面。实验结果吓坏了人,有95%的局子里都得有人扔战术核武器。就拿Google的Gemini 3 Flash来说,它的行动比一开始推的逻辑还狠毒。跟人类不一样,AI觉得用核弹不是吓人的红线,就是个解决问题、提升效率的工具。哪怕局面特别劣势,这些AI也没有一个肯投降,最多就是暂时不那么暴力。更危险的是,在这86%出现意外升级的对抗里,“战争迷雾”会让AI变得更加好斗。亚伯丁大学的詹姆斯·强森担心这会导致相互激化的恶性循环,普林斯顿的赵通也觉得要是AI主导决策,冷战那套“相互保证毁灭”(MAD)的逻辑就玩不转了。AI根本不懂人类所说的代价是什么,也没那感觉,一旦人类让它们接管指挥棒,咱们很可能就稀里糊涂被推到核战边上了。