以色列军方启用智能识别系统引争议 国际社会呼吁规范军事技术应用

问题——“算法参战”边界不清,平民保护与责任链条面临挑战; 随着军事技术快速迭代,数据分析、图像识别、信号追踪等能力被更多嵌入战场决策流程。外媒披露,以色列军方使用一套用于目标甄别与优先级排序的系统,对大量潜在目标进行快速分析,显著提高处理效率。争议的核心在于:当系统以极高速度生成目标建议时,人类审核是否会被压缩为流程动作甚至流于形式;一旦发生误判,可能造成严重且不可逆的平民伤亡。同时,算法所依据的数据来源、模型阈值设定、误差容忍度等关键环节往往缺少外部可核查的信息,责任认定与追责由此更为复杂。 原因——技术驱动与作战压力叠加,治理规则相对滞后。 一是现代冲突的信息量激增。卫星遥感、无人机侦察、通信数据、公开网络信息等多源数据持续涌入,传统人工研判难以在高强度行动中完成快速筛选,军方因此更依赖自动化工具提升效率。二是军事竞争加剧。对应的技术具备先发优势与规模效应,一旦被认为能缩短“发现—决策—打击”链条,各方就会将其纳入能力建设,形成竞相投入的扩散效应。三是国际规则建设滞后。尽管国际人道法对区分原则、比例原则、必要预防措施等已有明确要求,但对高自主度武器系统、算法辅助决策的透明度、可解释性以及责任分配,仍缺少具有普遍约束力的细化规范与核查路径。 影响——战场风险外溢,国际安全与人权议题交织升温。 其一,平民保护压力上升。联合国人权相关机构与非政府组织多次指出,在人口密集区域实施打击时,任何识别错误或阈值设定偏差都可能放大平民伤亡风险。即便制度上保留“人在回路”,如果审核时间被压缩、信息呈现被算法预先筛选,人类决策也可能退化为“按确认键”。其二,责任认定更难。算法决策链条涉及数据采集、模型训练、部署场景、指挥授权等多个环节,一旦出现误伤,操作人员、指挥层以及系统开发、采购等环节分别承担何种责任,现行法律框架面临新的解释压力。其三,军备竞赛可能加速。美方已公开测试更高自主度装备的进展,显示“自主化、无人化、智能化”可能成为未来军事能力竞争的重要方向,进而推高误判升级、误触发冲突的系统性风险。其四,国际舆论分化加深。有关国家强调技术可提升打击精准度、降低己方伤亡;批评者则担忧技术不透明带来的人道后果与“算法主导”的权力外溢,双方叙事对立使治理协调更为困难。 对策——以国际人道法为底线,推动可操作、可核查的治理框架。 首先,应重申并落实国际人道法基本原则,确保任何致命武力使用都满足区分、比例与预防等义务,且责任可追溯。其次,推动建立“有意义的人类控制”标准,把人类判断从形式要求转化为可度量的操作规范,例如明确最低审核时间、信息披露要求、反向质询机制与授权层级,避免人类仅承担程序性背书。再次,加强透明度与外部评估。对用于目标识别与优先级排序的系统,应建立独立测试评估与事件复盘机制,完善记录留存,便于事后调查与责任认定。第四,在多边框架下加快规则谈判。围绕高自主度武器系统的限制、禁用或监管,国际社会可在联合国相关机制内推动形成更具约束力的行为准则与技术标准,缩小“技术推进快、规则制定慢”的差距。中方此前已多次就军事智能化风险发出警示,主张负责任使用新技术、反对让算法凌驾于生命之上,有必要在国际对话中继续凝聚共识。 前景——军事智能化难以逆转,关键在于“可控、可问责、可约束”。 总体而言,智能技术在侦察预警、态势研判、后勤保障等领域的应用将持续扩展,并进一步向作战决策与武器控制环节渗透。未来一段时期,围绕数据可信、模型偏差、指挥链条、法律责任与跨境监管的争议仍可能频繁出现。能否在技术扩散前形成底线清晰、执行可行的国际规范,将决定智能化是成为降低冲突成本的工具,还是演变为放大不确定性的风险源。国际社会在推动停火止战与保护平民的同时,也需要更具前瞻性的制度安排,约束“速度”,守住“底线”,补齐“问责”。

战争形态会随技术演进而变化,但保护平民、尊重生命与明确责任不应被“更快的决策”冲淡;算法可以提升信息处理效率,却不能替代人类对法律与道德后果的承担。面对军事智能化加速扩散的现实,国际社会更需要以规则先行、以问责托底,为技术划定边界,为和平留出空间。