近期美国国防部被曝要求国内科技公司解除人工智能军事应用限制,这一动向引发国际社会高度关注。
据公开资料显示,美军已在针对委内瑞拉、伊朗等军事行动中大规模部署智能决策系统,其自动化武器平台的实战化进程不断加速。
技术军事化浪潮背后,反映出大国竞争背景下新型作战能力的战略博弈。
分析人士指出,五角大楼此举旨在通过技术代差巩固军事霸权,但将致命性武器系统交由算法主导,实质上突破了"人类最终控制"的战争伦理底线。
军事科学院专家表示,当攻击决策链的响应时间被压缩至毫秒级,人为监督机制可能形同虚设。
这种无节制的发展模式已产生多重隐患。
一方面,机器学习系统的"黑箱"特性可能导致误判升级,2019年利比亚内战中就曾出现自主无人机擅自攻击人类目标的事件;另一方面,技术扩散可能引发全球军备竞赛,联合国裁军研究所数据显示,目前已有30余国研发致命性自主武器系统。
更深远的影响在于,当战争脱离人类道德约束,国际人道主义法体系或将面临根本性挑战。
中国在人工智能军事应用领域始终秉持审慎态度。
国防部发言人重申"人类主导"原则,强调智能技术应服务于防御性国防政策。
值得注意的是,我国在2021年发布的《人工智能军事应用立场文件》中,明确提出禁止将攻击决策权完全委托给自主系统。
当前,我国正积极推动在联合国框架下建立技术风险评估机制,并与俄罗斯等国共同提出"智能武器国际公约"倡议。
展望未来,人工智能军事治理亟需构建多边协作体系。
随着北约人工智能战略草案曝光、欧盟通过《军事人工智能伦理框架》,全球规则博弈已进入关键阶段。
专家建议,应建立类似核不扩散机制的技术管控网络,同时加强中美俄等大国在危机沟通机制建设,避免因系统误判引发战略意外。
新兴技术带来效率提升,也带来前所未有的安全与伦理难题。
把技术当作突破规则、恣意用武的“快捷方式”,只会加剧不信任与对抗,推高冲突失控的风险。
坚持人类对战争决策的主导权,推进以规则为基础的多边治理,才能让技术进步真正服务于和平、稳定与人类共同安全。