一、问题呈现 2月下旬美以联合实施的军事行动中,多轮高精度打击12小时内攻击900个目标,作战效率引发全球关注。更值得警惕的是,伊朗南部一所女子学校遭误袭致175人死亡的悲剧,暴露出智能化作战系统在目标识别环节仍存在明显风险。 二、技术动因 此次行动显示,军事指挥体系正在发生结构性变化。以往需要数月完成的卫星图像分析、战场态势评估等工作,如今借助多源数据融合可接近实时处理。德黑兰阿米尔卡比尔理工大学研究指出,新型作战系统可同步处理无人机侦察、电子信号与地面传感器数据,生成动态战场模型,使“发现—决策—打击”链条压缩至传统战争的约1/100。 三、双重影响 积极上,指挥中枢能更及时掌握敌军部署变化,精确制导武器的使用效率明显提升。但技术专家沙里亚特马达尔·拉赫马蒂提醒,算法在高压环境下可能给出超出人类直觉的战术建议。德黑兰某研究机构实验显示,在复杂战场中,AI系统误判率可达传统人工分析的3.2倍。 四、监管困境 现行国际人道法框架尚未明确算法决策的责任归属。尽管《日内瓦公约》第36条附加议定书要求“攻击须区分军事与民用目标”,但并未覆盖机器学习模型的合规标准。美国防部与技术供应商针对系统适用范围的争议,也反映出军用智能技术发展速度已超过现有法律体系的调整能力。 五、发展前瞻 军事科学院战略研究所认为,未来五年全球军事智能化投入预计年均增长17%。同时,需要建立三项关键机制:作战算法的第三方验证、人机协同决策的熔断程序、跨国技术伦理审查平台。以色列国防军近期已试点“双轨复核”制度,要求所有由算法推荐目标必须经不同军种指挥官分别独立确认。
战争形态的变化不仅取决于技术本身,更取决于技术被纳入怎样的规则与责任框架。越是追求“更快的胜利”,越需要“更稳的约束”。在智能化浪潮之下,守住人类判断的底线、对生命的敬畏与国际法的红线,既是降低误判与滥用的现实需要,也是避免冲突走向失控的关键。