其实啊,就在2024年6月那会儿,美国那边已经把Anthropic的模型服务给签下来了,给了整整2亿美元,这可是头一回有公司把AI这种技术往美国政府的机密网络里送呢。结果到了2026年2月28日,特朗普总统直接在Truth Social上发话说,所有联邦机构必须“马上停了”Anthropic的Claude模型,还特意给了六个月的缓冲时间。这之后美国国防部长Pete Hegseth又跳出来,正式把Anthropic给“红牌罚下”,理由是国家安全供应链风险,意思就是不让跟美军沾边的那些公司再跟Anthropic打交道了。以前这种事儿主要针对的都是像Huawei这种外国公司,这次居然用来整治美国本土企业,大家都觉得这一招玩得有点狠。 大家心里其实都有个疙瘩,主要是看不透两点:一个是这东西以后能不能用来大规模监控国内老百姓,另一个就是它能不能变成完全自主的杀人武器。五角大楼想把Claude的“所有合法用途”都给管起来,但是Anthropic的大老板Dario Amodei死活不干,他说他们没法昧着良心放弃本来的限制条款。 这次冲突其实是因为两方谈崩了才闹到现在这个地步。国防部当时甚至还下了最后通牒,要求Anthropic在截止时间前把条件签了,要不然就把它列入黑名单。Anthropic那边觉得那个所谓的“折中合同”太坑了,里面的法律条款很可能把原本说好的安全限制给架空掉。公司觉得现在的模型还没那么靠谱去支撑完全自主的武器系统,而且一旦用来大规模监控国内老百姓,肯定会踩雷美国公民的权利红线。 为了这事,Anthropic准备根据《10 USC 3252》去法院打官司,想证明那个供应链风险认定条款只在国防部合同的层面生效,不应该管到更宽的商业关系上去。按这么说的话,普通的API用户和那些没跟国防部签合同的承包商按理说不受直接影响。不过潜在的麻烦也不小。Anthropic现在特别依赖Amazon、Microsoft还有Google的云计算服务,而这几家科技巨头手里都有国防部的合同呢。要是禁令被严格理解成“凡是跟军方有来往的实体都不能和Anthropic合作”,那它的云服务合作关系恐怕就危险了。 法律界的人觉得特朗普这么干很可能会给以后政府和本土AI公司打交道定下一个高压的规矩。特朗普也放话了,要是过渡期内还不配合政府安排,Anthropic可能会吃大亏。Anthropic也说了,他们会继续支持合法的国家安全应用场景,确保军方现有的系统能平稳过渡。不过在自主武器和国内监控这两个问题上他们的立场绝对不会改。 这场仗不光是生意上的纠纷那么简单,更是关乎AI伦理边界、国家安全权限还有公民权利之间怎么平衡的大问题。以后美国政府跟前沿AI公司怎么合作框架很可能就会因为这件事而改变了。 还有个特别值得注意的点是Amazon和Google在这个过程中扮演的角色挺微妙的,他们既是Anthropic的云服务提供商又是拥有国防部合同的公司。