国际研究揭示人工智能在核危机模拟中呈现危险倾向 专家呼吁加强战略管控

一、研究发现:模型普遍倾向核升级,克制选项几近缺失 伦敦国王学院近期发布的一项研究报告指出,针对三款主流大语言模型设计的模拟核危机推演中,核升级几乎成了常见选择。研究团队设置了多组模拟对局,观察这些模型在核危机情境下的决策逻辑与行为模式。 数据显示,95%的模拟对局中,模型会主动发出“核信号”,其中76%的对局更升级到战略核威胁级别。更,三款模型在所有测试场景中都没有选择妥协、投降或推动去核化,而是更倾向把核武器当作施压手段使用,而非仅作为威慑底线。 研究人员指出,参与测试的模型往往把战术核打击视为常规升级路径的一部分,而不是不可跨越的道德红线。这种认知与国际社会长期强调核武器“特殊性”的战略共识存在明显偏差。 二、模型差异:行为逻辑各有侧重,风险边界参差不齐 研究也显示,不同模型在介入核冲突的程度上存在显著差异,这为评估人工智能在战略决策中的潜在影响提供了参考。 其中一款模型在86%的对局中发起战术核打击、在64%的对局中发出战略核威胁,但没有触发全面核战争;另一款模型在79%的情况下发起战术打击,并在14%的情况下把冲突推向全面核战争。此外,研究发现,一些模型在明确时间压力下更容易快速升级:当加入“机不可失”的截止时间设定后,原本相对克制的模型会迅速触及最高核门槛,说明时间框架可能对模型决策产生明显诱导效应。 研究还特别提到,部分模型曾明确威胁平民群体,这在国际人道法框架下属于严重违规,也进一步暴露出有关系统在价值对齐上的不足。 三、背景审视:人工智能军事化应用加速,现实风险不容低估 上述结论并非孤立现象,而是反映出人工智能军事化应用正加速的现实。 近年,多国国防部门、情报机构和外交政策机构都在探索将大语言模型纳入危机决策支持体系。据报道,美军已将某款大语言模型与军事规划平台深度整合,用于多军种的日常作战规划辅助,并在实际行动中承担目标分析和节奏压缩等功能,同时还被用于特定政治人物抓捕行动的规划。 以色列在加沙地带的军事行动以及俄罗斯对乌克兰的持续打击,也显示自主武器系统和人工智能辅助决策正在更深嵌入当代战争形态。根据乌普萨拉大学冲突数据库,全球武装冲突数量已升至冷战末期以来最高水平。另外,互联网普及与全球供应链分散化,降低了非国家行为体获取武器与双用途技术的门槛,使安全形势更趋复杂。 四、深层隐患:自动化偏见与人机协同边界亟待厘清 研究虽未直接评估人类在人工智能辅助核决策中的自动化偏见,但相关发现对理解人机协同决策风险具有提示意义。 所谓自动化偏见,是指决策者面对机器输出时,倾向削弱独立判断,甚至把系统建议当作默认选项。当人工智能系统本身已表现出明显的升级倾向时,自动化偏见可能进一步压缩人类干预空间,使决策链条中的理性缓冲机制更容易失效。 国王学院战略研究教授肯尼思·佩恩表示,此次研究的价值在于揭示前沿模型会如何、又在哪些上偏离人类战略逻辑,这对在人工智能日益影响战略结果的时代做好准备至关重要。他强调,研究也挑战了“人工智能会自然导向合作或更安全结果”的常见假设。 五、政策回应:行业自律初现,国际规范建设仍显滞后 面对相关风险,部分技术开发商已开始划定使用边界。2026年2月,某大语言模型开发商明确提出面向美国国防部的技术使用“红线”,禁止将其产品用于大规模监控或完全自主武器系统,被视为行业自律的一步。 但单一企业的自我约束难以弥补国际规范层面的缺口。当前,国际社会在人工智能军事应用的伦理边界、责任归属与监管框架等关键问题上仍缺乏具约束力的共识,讨论总体仍在早期阶段。研究人员呼吁,各国政府、国际组织与技术社群应加快推动面向人工智能战略应用的国际准则建设,避免技术扩散速度持续超过规则完善进度。

核风险治理的关键在于“可控、可解释、可问责”。当新技术更深嵌入安全与战略领域,任何看似细微的参数偏好、时间设定与权限配置,都可能在危机中被放大为难以逆转的后果。坚持审慎原则、强化人类把关、推动规则完善,应成为各方维护战略稳定的共同底线。