美政府罕见叫停本国AI企业军事合作 技术安全边界博弈引关注

问题——禁用令罕见升级,联邦采购链条出现“急刹车” 据多家美国媒体报道,特朗普日前公开指示所有联邦机构停止使用Anthropic提供的模型与对应服务,并允许包括国防部门内的机构在限定期限内逐步替换。由于Anthropic长期与政府部门存在合作,且其产品被视为美国大模型技术路线的重要代表之一,此番“从使用到禁用”的急转,迅速引发政界、产业界和国际社会对美国技术治理稳定性的担忧。,该公司此前曾在舆论场以“安全风险”为由,指控中国相关企业对其模型进行所谓“工业级蒸馏”,一度被外界视为美国对外技术竞争叙事的积极参与者。如今遭遇联邦层面的限制措施,凸显事件并非简单的对外立场问题,而是美国国内权力边界与技术控制矛盾的集中爆发。 原因——合同分歧叠加路线冲突,“安全优先”触碰军方底线 梳理公开信息,此次争议的核心不在市场竞争,而在军方对前沿模型使用权的要求与企业自身安全框架之间的冲突。美国国防部门近年来加快推动人工智能融入情报分析、指挥辅助、后勤调度等体系,并倾向以“任何合法用途”为前提获取更宽泛的技术调用权限。鉴于此,Anthropic坚持对高风险场景设定边界,强调其模型不应被用于面向本国公民的大规模监控,也不应被用于缺乏有效监督的自主致命性武器系统。美国舆论普遍认为,上述立场与该公司长期倡导的“安全护栏”理念一致:其担忧并非指向特定国家,而是指向高能力模型扩散后的系统性风险。 然而,在军方看来,企业在合同层面设置“不可触碰区”,可能削弱作战与情报效率,甚至被视为对军事指挥权威与国家行动能力的限制。由此,争议被推入国家安全框架之中。有报道称,美国国防部门相关人士将Anthropic列入“供应链风险”类别,显示该问题已从商业谈判上升为安全与权力边界之争。 影响——美国技术治理分裂加深,对外政策叙事出现反噬效应 第一,对美国政府采购与产业合作释放不确定信号。对一家本土头部企业采取禁用措施,意味着联邦部门对技术供应商的评估标准正在发生变化:不仅看能力与成本,也更强调“可控性”和“可用性”。这将迫使更多企业在“商业原则、伦理约束与政府需求”之间重新站队。 第二,强化美国国内关于“安全”与“发展”的路线分歧。一上,企业和部分学界强调高能力模型需建立更严格的红线;另一方面,安全部门强调国际竞争压力下必须扩大可用空间。两种逻辑的对撞,可能导致监管与政策摆动更频繁,影响美国在前沿技术领域的持续投入与制度协调。 第三,对外技术竞争叙事可能出现反噬。Anthropic在涉华议题上使用国家安全话语,客观上加入了对外竞争的叙事链条,但当其将同样的“安全边界”用于限制本国军方时,立场一致性反而成为冲突源。这表明,在美国国内,所谓“国家安全”并非单一指向外部对手,也被用于重塑政府、军方与企业之间的权责结构。 对策——在国家安全与技术治理之间建立可验证的规则框架 观察人士认为,美国若要缓和类似冲突,需要在三上推动制度化安排:一是对军方使用前沿模型的场景分级,明确哪些属于低风险支持性用途,哪些涉及高风险决策与致命性行动,并建立强制审计与责任追溯机制;二是通过合同条款细化“合法用途”的边界,将监督、数据来源、模型更新、第三方评估纳入可执行指标,减少“无限授权”式模糊空间;三是对供应链风险认定引入更透明的程序,避免将商业分歧直接安全化、标签化,造成政策工具被滥用。 前景——“能力扩散焦虑”将长期存在,美国产业与政府关系或重塑 从趋势看,前沿模型能力迭代加速、应用外溢增强,使“能力扩散焦虑”在美国政界和产业界仍将长期存在。未来一段时间,美国政府可能继续提高对关键模型、算力与数据的控制要求;而头部企业也可能更强调合规边界与风险隔离,以降低声誉与法律风险。双方若缺乏稳定的制度接口,类似“先合作、后禁用”的剧烈波动或将反复出现,并外溢至盟友体系与全球技术市场,影响跨境合作与行业标准形成。