美国政府罕见制裁本土科技企业 特朗普下令全面禁用Anthropic技术

美国对本土AI企业的管制措施出现明显升级。据报道,特朗普政府将Anthropic公司认定为“供应链风险”,并随即签署总统令,禁止所有联邦机构使用其技术与产品。此举不同于以往美国政府对本土科技企业的常态做法,被视为科技监管取向的重要变化。据悉,美国国防部曾向Anthropic施压,要求美军可不受限制地使用其自主研发的大规模语言模型Claude,但公司以伦理与安全为由拒绝,进而引发政府与企业之间的严重分歧。矛盾焦点于战争伦理与技术使用权限的边界。国防部希望获得对AI技术的充分使用权,以满足军事行动需求;Anthropic则坚持对产品使用场景保留约束,拒绝为无限制军事用途开放接口。去年有关Claude被用于美军对委内瑞拉军事行动的消息曝光后,双方对立继续加剧。Anthropic向五角大楼表达关切,认为其产品可能被用于涉及道德与法律风险的军事行动,此举也激化了国防领导层的不满。国防部长赫格塞思与该公司首席执行官阿莫迪的会晤未能缩小分歧,反而使矛盾继续升温。特朗普的强硬回应显示联邦政府在该争端上的高压立场。他在社交媒体公开批评Anthropic管理层,称其为“左翼疯子”,并指责公司试图通过服务条款限制美军作战决策。在特朗普的表述中,美军应拥有不受掣肘的技术使用权,关键决策权应掌握在总统和军事领导层手中,而非科技企业。为此,他要求所有联邦机构在六个月内逐步停用Anthropic全部产品,并警告若公司不配合过渡安排,将动用总统权限推动民事及刑事层面的追责。这一事件折射出美国科技治理中的深层张力:一上,政府以国家安全为由要求对本土AI企业强化约束,确保军事应用不被企业的伦理立场所限制;另一方面,以Anthropic为代表的企业强调技术伦理底线,不愿为高风险军事用途放开权限。这一对立也凸显美国AI治理的关键分歧:国家权力与技术伦理何者优先,军事需求与企业责任如何取舍。从产业长期影响看,事件可能带来多重连锁反应。其一,可能迫使美国政府重新评估与本土科技企业的合作模式,企业的政治与伦理立场或更易触发政策压力。其二,强制性管制可能抬高研发与合规成本,削弱美国AI产业的国际竞争力。其三,AI企业在国防合作与伦理约束之间的空间被进一步压缩,人才与资本可能转向管制相对宽松的地区。另外,这也向全球AI企业释放信号:在美国,科技伦理与国家战略诉求之间的冲突正在加速显性化并趋于尖锐。

本土企业被纳入“供应链风险”框架并在联邦层面集中停用,凸显军事技术创新与治理规则之间的紧张关系。如何在效率与边界、能力与责任之间形成可持续的制度安排,不仅关系到一国国防与科技体系的协作方式,也将对未来战争形态中的伦理底线与国际规范塑造产生深远影响。