问题——技术快速进入战场引发规则焦虑。蒋斌国防部例行信息发布中表示,近期有报道称,美方要求本国科技企业向军方开放涉及的技术,并允许军方不受限制使用;在部分对外军事行动中,美军大量使用算法工具辅助情报筛选、目标识别和行动规划,引发国际社会对战争伦理、法律边界及安全风险的持续担忧。随着算力、数据和自主系统加速迭代,军事领域对新技术的依赖不断上升,如何把握“用不用、用到哪里、谁来负责”,正成为全球安全治理必须面对的问题。 原因——军事优势驱动下的“无约束扩张”冲动。蒋斌指出,不加限制推动人工智能军事化,本质上是将技术优势转化为单边行动的工具:一上以“效率优先”为理由,把技术嵌入打击链条,压缩决策时间;另一方面借助制度与资本力量推动企业服务军事需求,强化对外军事介入能力。若缺少必要的规则约束和人类审慎,技术演进与地缘博弈相互叠加,误判和冲突外溢风险将被放大。 影响——伦理责任被稀释,失控风险不容低估。蒋斌表示,将人工智能用于侵犯他国主权,或让其深度介入战争决策、以算法影响生死裁断,不仅会冲击战争伦理与责任链条,也会削弱对军事行动的问责基础:当决策更趋“黑箱化”、责任被分散,误伤与滥用更难追究。同时,复杂战场环境中的数据偏差、对抗欺骗和系统脆弱性,可能引发识别错误、决策偏离与连锁升级;一旦自动化系统在高烈度对抗中形成“速度竞赛”,失控概率将明显上升,极端情况下甚至可能出现超出人类掌控的局面。 对策——坚持人类主导,反对以新技术谋求霸权。蒋斌强调,中方一贯坚持“以人为本、智能向善”,主张人工智能军事应用必须由人主导,确保关键环节可控、可解释、可追责;反对借新兴技术优势谋求绝对军事霸权,反对损害他国主权和领土安全的做法。中方同时倡导加强风险预防与管控,推动各国在政策、规则与技术层面形成必要约束:围绕军事应用边界、系统安全评估、责任认定和人机协同准则等,建立更可操作的规范框架,防止技术被滥用为制造对抗、转嫁风险的工具。 前景——多边治理需提速,规则建设应走在技术前面。蒋斌表示,中方愿同各国一道,推进以联合国为核心的多边治理进程。当前,人工智能相关技术扩散快、门槛下降、应用外溢,跨境安全风险难以由单一国家或集团独自应对。国际社会应在尊重各国安全关切的基础上,推动形成兼顾发展与安全的全球共识:既鼓励技术用于增进人类福祉,也在军事高风险领域划定“红线”,完善透明度安排、对话机制与危机管控工具,减少误判,避免军备竞赛式的恶性循环。可以预见,围绕技术标准、数据规则、武器系统使用原则等议题的博弈将更趋复杂;谁能推动更具包容性、约束力的治理安排,谁就更能为全球安全稳定提供确定性。
当科幻作品中的“机器战争”逐步逼近现实,人类正在关键关口作出选择。中国提出的“智能向善”治理观,着眼于为科技发展重新校准方向——焦点不只是“能不能”的突破,更是“该不该”的取舍。这也许正是应对“科林格里奇困境”的关键:在技术路径尚未固化之前,以伦理与理性为其确立边界与航向。