特朗普政府已经跟Anthropic干上了,司法部表示这家公司的AI条款绝对没法接受,没法再相信他们。这个法律战搞得美国政府和军方都在质疑Anthropic到底还能不能信赖。特朗普政府发誓要把Anthropic的AI技术从美国政府机构中清除出去,司法部则表示这种做法对国家安全造成了不可接受的风险。现在的局面是,企业可能要损失几十亿美元。2月27日,赫格塞思在社交媒体上透露了美国军方的计划,他们准备在六个月内给Anthropic时间,把业务转移给其他供应商。这次争执始于2026年初的谈判。当时美国国防部和Anthropic就使用他们的技术条款进行了多次讨论,希望能获得更多自主权。不过赫格塞思却担心Anthropic不可信赖,因为他们可能会自行判断公司的“红线”被逾越,并在作战行动中干扰或禁用他们的技术。特朗普政府下令五角大楼和其他联邦机构把AI业务转移给其他供应商。在2026年2月27日的一则社交媒体帖子中,赫格塞思表示军方将继续使用Anthropic的技术工具,但不超过六个月,以便顺利过渡到一个更可靠、更具爱国精神的服务商。 尽管如此,这个时候Anthropic还是选择了反击。他们提交诉讼试图阻止美国国防部把他们列为供应链风险企业,结果把官司打到了法庭上。这次法律战甚至可能让他们损失几十亿美元收入。 就在北京时间3月18日那天,彭博社爆出了这个消息:特朗普政府誓言通过法律手段给Anthropic的AI技术清除出局。Anthropic开发了Claude聊天机器人系统,并在去年夏天就开始向市场销售这个产品。他们公司表示这是为了确保自己能控制Claude的使用方式和模型行为。但问题是美国国防部并不满意这种限制。 整个过程中,“Anthropic的表现让国防部怀疑”,“在这个高度敏感的领域”,他们还能不能做值得信赖的合作伙伴?美国司法部律师在提交给法庭的文件中这样说道。 司法部还担心如果让Anthropic继续接触五角大楼的技术和作战系统,“会给国防部供应链带来不可接受的风险”。 毕竟AI系统很容易被操控。“如果Anthropic觉得自己的红线被逾越”,“他们可能会在作战行动之前或期间”,“试图禁用自己的技术”,“抢先改变模型行为”。律师们是这样分析的。 这次纠纷不仅涉及到赫格塞思个人言论背后的影响(他在2月27日就已经表态),也涉及到特朗普政府对AI企业审查态度的转变。 总之,“AI条款无法接受”、“已难以信赖”、“特朗普政府反击”,这些词汇已经成为当前美国政府和企业之间的矛盾点。“当技术红线遭遇作战需求”,“谁在定义AI的战场规则”,这是所有关心科技发展与国家安全关系的人们都在思考的问题。 正如这次事件所展示出来的那样:美国司法部、国防部、特朗普、彭博社、Anthropic、Claude、北京等要素交织在一起。 新闻背景介绍:特朗普政府正在推动一项通常针对外国公司的风险认定计划,“把AI业务转移给其他供应商”。而特朗普所主张的“爱国精神”,则是为了更好地保护美国民众和军队利益。“这次法律战或让企业损失数十亿”,“军方质疑AI公司能否信任”,这种说法也说明了当前形势有多严峻。 结论:“谁在定义AI的战场规则?”——这个问题可能需要由未来的法律判决来回答。