围绕新一代智能技术的军用边界,美国军方与科技企业之间的拉扯正在公开化。
美媒援引多名知情人士消息称,美防长赫格塞斯2月24日会见Anthropic首席执行官阿莫迪时,提出要求对方在本周五前签署文件,允许美军对其技术“不受限制”使用,并以“否则将受到惩罚”相警告。
报道还称,赫格塞斯提到可能动用《国防生产法》,以国家紧急状态名义对企业提出强制性要求。
五角大楼官员则对外强调此事与“大规模监控”和“自主武器”无关,称只是执行“合法命令”。
Anthropic发言人证实会谈并表示双方就使用政策进行了沟通,旨在在支持国家安全任务与确保模型可靠、负责任运作之间寻求平衡。
一、问题:军方“无限制使用”诉求与企业红线发生直接碰撞 从披露信息看,矛盾焦点不在是否合作,而在“如何合作”。
美方防务部门强调军方一旦采购或调用相关产品,企业不应干涉用途,并将智能系统类比为传统军工采购中的平台装备。
企业方面则提出两条明确限制:不得用于对国内公民的大规模监控;不得用于在无人干预情况下自主决定物理攻击目标。
企业同时担忧模型可靠性不足,可能引发致命错误,导致行动升级或任务失败。
这种分歧,实质是军方追求“效率—规模化—指挥链整合”,与企业强调“责任—可控性—风险外溢”之间的制度性矛盾。
二、原因:三重动力推动美军加速“技术动员” 其一,军事竞争逻辑强化。
当前美国将智能技术视为提升情报处理、态势感知、指挥决策与后勤保障的关键工具,迫切希望在研发、部署和迭代上形成速度优势。
其二,战场形态变化倒逼。
现代作战信息密度高、节奏快,军方希望借助模型能力实现快速筛选与预测,降低人力负担,提升响应效率。
其三,法律工具为“非常规施压”提供支点。
《国防生产法》原本用于紧急时期的产能与资源调配,如被用于迫使企业放松使用限制,将意味着国家力量对私营技术路线与合规边界的深度介入,也反映出军方在关键能力供给上不愿受制于企业条款。
三、影响:信任成本上升,军民合作规则面临再塑 首先,企业合规压力与舆论风险同步增加。
若军方坚持“无限制”,企业可能在用户信任、内部治理、人才流动等方面付出代价,并面临“技术被用于不当场景”的外部质疑。
其次,军事应用的安全性与可控性争议将被放大。
企业强调模型存在可靠性不足与潜在误判风险,提示在目标识别、情报研判、火力打击等高风险链路中,若缺乏严格的人类监督与审计机制,误用或误判可能带来不可逆后果。
再次,美国国内的制度张力可能加剧。
一方面政府强调国家安全与“合法命令”,另一方面企业提出红线与责任边界;若动用强制性法律工具,或引发关于权力边界、隐私保护与监管正当性的进一步争论。
最后,外溢效应不容忽视。
相关做法可能刺激其他国家加快军用智能化布局,同时加深国际社会对“智能武器化”“算法军备竞赛”的担忧,削弱全球治理共识的形成空间。
四、对策:从“要不要用”转向“如何可控地用” 就技术治理而言,关键在于把军用场景的“合规约束”制度化、可核验化,而不是仅靠口头保证。
其一,明确使用边界与责任链条,通过合同条款、技术接口限制、任务授权流程等机制固化红线,避免概念性“无限制”导致责任模糊。
其二,建立分级授权与审计体系,对不同敏感度任务设置不同调用权限,强化日志留存、可追溯审计与第三方评估,降低滥用风险。
其三,强化“人类在回路”机制,在涉及目标选择与致命行动的关键环节设置强制人工复核、否决权与多源交叉验证,防止模型输出直接转化为行动指令。
其四,推进可靠性与安全测试常态化,将极端情境、对抗样本、误差边界纳入评估,避免在高风险任务中“带病上线”。
五、前景:美国军方或继续施压,企业博弈将更趋制度化 综合各方表态,美军推进智能技术应用的方向难以逆转,争议更可能转向“规则如何落地”。
从短期看,军方或借助采购、合同与法律工具争取更大使用权;企业则可能通过限定用途、技术护栏与更严格的合规条款维护底线。
中长期看,美国内部围绕智能技术军用的立法、监管与行业自律可能进入更密集的调整期:一方面为军方提供更顺畅的技术动员渠道,另一方面也试图缓冲由监控、自治武器、误判风险带来的社会与国际反弹。
无论结果如何,此类事件都将成为观察美国“国家安全优先”与“企业治理边界”如何重新划线的重要窗口。
当算法开始参与生死决策,人类正站在文明发展的十字路口。
此次事件不仅是商业契约之争,更是对智能时代战争伦理的严峻拷问。
如何在技术创新与安全可控之间找到平衡点,将成为检验各国治理智慧的试金石。
历史表明,任何颠覆性技术的军事应用,最终都需要回归人本主义的根本立场。