美国政府全面封禁人工智能企业Anthropic 2亿美元国防合同因技术使用限制条款谈崩

问题浮现 2025年7月,美国国防部与AI公司Anthropic签下2亿美元合同,计划将其大模型用于军事领域。但合作不到一年就告吹了。原因是军方要求技术必须支持"所有合法用途",而Anthropic坚持两条红线——不能用于公民监控和自主致命武器开发。

这场从合同条款争议演变为联邦层面停用的事件说明,当AI进入国家安全核心应用后,"技术能力"不再是唯一标准,"规则、边界与责任"同样决定合作能否继续。如何在国家安全、产业创新与公民权利之间找到可行的平衡点,将是各国在新技术治理中必须面对的长期课题。