(问题)俄乌冲突久拖未决之际,战场技术迭代仍在加速。近日有外媒披露,美国一家机器人初创企业已向乌克兰交付两台军用类人机器人用于军事用途,并在前线环境开展验证测试。这意味着“类人机器人走向战场”正从概念展示进入实地试用阶段,也随之引发关于作战安全、指挥链控制、国际规则与伦理边界的争议:它们将被如何使用?能否被有效约束?一旦造成伤亡,责任由谁承担? (原因)首先,现代战场对“感知—决策—行动”链路的速度与精度要求明显提高。类人机器人依靠多传感器感知与机电执行机构实现机动,可在复杂地形中执行侦察、搬运、危险物处理等任务,从而降低人员暴露风险。外媒所述“幻影MK-1”身高约1.8米、重量约80公斤——行进速度约6公里/小时——可携带约20公斤物资,具备一定的机动与负载能力,契合前线“替人进入高危区域”的现实需求。 其次,无人化、自动化作战体系近年发展迅速,从无人机延伸到地面无人平台。类人形态在理论上更易适配现有的人类装备与环境,例如门禁、楼梯、车辆与战壕等基础设施,可减少改造成本,因此成为企业与军方共同关注的方向。 再次,军工创新越来越依赖企业的研发与迭代速度。外媒信息显示,该企业成立时间不长,却已与美国国防体系主管部门开展合作,并将战场视为验证场景。其商业模式采取“租赁而非出售”,据称单台年租约10万美元,通过持续服务与迭代维护降低用户一次性采购门槛,也便于企业统一管理系统更新与权限控制。 (影响)一是战术层面可能出现“人员替代效应”。若类人机器人能够稳定承担侦察、搬运、排爆等任务,有望减少步兵在高危节点的出动频次,提升部队持续作战能力,并改变部分前沿行动的组织方式。 二是安全层面的不确定性增加。主要担忧集中在误识别目标导致附带伤害、系统故障引发误操作、通信链路受干扰或遭网络入侵等。一旦在高压环境下发生误判或失控,后果可能被快速放大。 三是责任与规则的“灰区”更突出。自动化系统介入作战流程后,若出现平民伤亡或违规使用,责任如何在操作者、指挥者、供应商与软件系统之间划分,现有国内法与国际法框架都面临挑战。部分智库与研究机构认为,交战各方信息不透明会深入加剧外界疑虑;伦理争论也聚焦于“将生死决断交由机器”是否会削弱对战争后果的审慎态度。 四是军备竞赛风险可能外溢。若“可规模化复制”的地面类人平台进入战场并被证明有效,其他国家和地区可能加速类似系统的研发与部署,推动新一轮无人化对抗升级,并可能扩散至边境管控、反恐与城市安全等场景。 (对策)一要遵循“人在回路”的底线约束。涉及的企业声称遵循“未经人类批准不得发动攻击”原则,但关键在于制度化、可验证、可追溯:明确授权链路,将交战规则写入系统流程,对关键环节留痕审计,并在通信受扰或识别置信度不足时自动降级或停机。 二要强化网络与数据安全体系。对前线系统而言,抗干扰通信、访问控制、漏洞响应、供应链安全与硬件可信根同样关键,应建立常态化红队测试与应急处置机制,防止被远程接管或被对抗性样本误导。 三要推动国际层面的规范讨论。针对自主武器、半自主系统与人机协同作战的界定,亟须在多边框架下形成更具操作性的标准,包括透明度要求、出口管制、使用场景限制与责任归属原则,避免技术扩散先于规则成形。 四要完善战场应用边界。类人机器人在侦察、救援、排爆、后勤等领域具有现实价值,但任何扩展至火力使用的功能,都应接受更严格的审批、测试与法律评估,避免出现“先部署后约束”。 (前景)据外媒披露,该企业正加速研发与生产,提出到2027年底实现较大规模产能目标,并计划先期部署更多设备。若相关技术在乌克兰战场持续迭代,其影响可能不止于军事:同类平台也可能进入工业与高危作业领域,以替代多班轮转人员提升效率,同时带来就业结构调整、工伤责任划分与安全标准更新等新议题。未来一段时期,人机协同或将成为战场与产业共同面对的长期课题,而“可控、可管、可责”将决定这类技术的边界与走向。
从无人机到地面无人平台——再到类人机器人进入前线——技术进步正在重塑冲突形态,但技术本身并不天然等同于安全与正当;能力越是快速落地,越需要规则、透明与问责同步跟进,把战争伦理约束与法律底线嵌入系统与制度之中,避免工具理性在无形中推高风险。只有在可控、可验、可追责的框架内,技术发展才可能更有效地服务于减少伤亡、降低对抗烈度与维护共同安全。