AI公司Anthropic把五角大楼告了。消息是参考消息网在3月12日发的,说是3月9日这事儿。Anthropic觉得五角大楼想把它拉入国家安全黑名单,这就把双方围绕AI技术使用限制的矛盾给推到了高点。公司在加利福尼亚州一家法院提起了诉讼,要求法院撤销五角大楼的认定。Anthropic说这种做法没先例也不合法。白宫那边也没闲着,正准备出个行政命令,要联邦政府停掉对Anthropic的AI技术使用。这一闹腾,就得看看到底是谁说了算:政府还是企业。Anthropic还说了,就算再好的AI模型也不一定可靠地用于全自动武器,这么干太危险了。公司还画了条线,反对拿AI技术对老百姓搞国内监控,觉得这侵犯了基本权利。五角大楼可不认,说保卫国家得听法律的。美国《华尔街日报》也说了,9日这天,Anthropic起诉特朗普政府,因为特朗普政府把它当成了安全威胁,想取消合同。双方这么一吵就上了法律台面。Anthropic辩解说,自己只是不同意国防部用AI技术的方式,特朗普政府就直接把它列为供应链风险企业了,这报复手段太狠了。《华尔街日报》还提到,Anthropic在诉状里说被告想毁了一家全球增长最快的非上市公司的经济价值。这次诉讼的被告名单里不光有国防部、防长皮特·赫格塞思还有很多政府官员。白宫发言人说特朗普绝不容许激进左翼的“觉醒”公司指手画脚给军队惹麻烦。国防部这边没啥回应。这场官司把双方的斗争升级到了新战场,焦点就是五角大楼要立什么样的AI规矩。在谈判的时候,Anthropic就想要保证自己的AI工具不被拿去搞大规模国内监控或搞自主武器。五角大楼说这些事儿它不干且遵纪守法,所以你信它就行。这事儿其实是在2月27日这天冲突升级的。赫格塞思当时就说要把Anthropic列为供应链风险企业——本来这招是对付海外敌对国家的——这样一来那些同时跟国防部合作的Anthropic客户就得证明自己没在跟国防部有关的活动中用过“克劳德”(Claude)模型。包括微软和谷歌在内的投资者和合作伙伴都表示不会因为这事就断了联系。支持者们觉得既然国防部在对付伊朗时都在用“克劳德”模型说明问题不大;赫格塞思等人则反驳说Anthropic不让军方随便用技术才是安全风险,因为它这是想控制军方用技术的方式,会影响军事行动。