近日,美国国防部与人工智能企业Anthropic的合作关系陷入严重僵局。据媒体报道,五角大楼正威胁终止双方价值2亿美元的合作协议,核心争议围绕谁应掌握对AI技术军事应用的最终控制权展开。 问题的症结于双方对AI使用边界的理解存在根本性差异。国防部要求Anthropic允许军方将其Claude模型应用于"所有合法用途",这实质上意味着取消现有的安全限制措施。这些限制原本禁止将AI技术用于武器研发、情报搜集和战场作战等敏感领域。而Anthropic则在两个问题上设置了明确的红线:一是禁止使用其技术对美国民众进行大规模监控;二是禁止用于开发完全自主武器系统,即无需人类干预即可自主决策和执行的致命性武器。 分歧的激化源于具体的实际操作冲突。当Anthropic询问其技术是否被用于一次实战火力打击行动时,国防部官员表现出明显的不满。军方认为,在实际作战环境中要求作战人员暂停行动与软件供应商逐一协商使用场景是不现实的。这反映出军事行动的紧急性与企业伦理审查之间的时间差矛盾。 需要指出,在美国国防部向OpenAI、谷歌和xAI等四大AI企业施压的过程中,其他三家企业都表现出了一定的灵活性和妥协空间,唯独Anthropic态度最为坚定。这家以"人工智能安全"为核心理念的企业甚至在内部形成了对军方业务的不同意见,充分反映了其对伦理原则的执着。有官员评价Anthropic是所有AI实验室中最具"意识形态化"特征的企业。 然而,五角大楼也面临现实的两难困境。尽管与Anthropic摩擦不断,国防部官员坦承,在面向政府专项和涉密应用场景中,Claude模型的性能仍然优于竞争对手。这意味着放弃与Anthropic的合作可能会削弱美国防部的技术能力。 为了打破僵局,五角大楼暗示可能采取强硬措施。国防部威胁将Anthropic列为"供应链风险方",并逐步寻找替代解决方案。这个举措将对Anthropic的商业前景产生重大影响,可能限制其获得政府合同的机会。 对此,Anthropic上坚持其立场,强调公司致力于维护国家安全,并指出自己是首家将AI模型接入涉密网络的企业,这体现了其安全合规上的先发优势。目前,双方仍在沟通协商中,但前景并不明朗。 这场冲突的深层背景是美国政府对AI技术军事应用的迫切需求。随着国际竞争加剧,美国国防部希望充分利用先进AI技术来增强军事能力。但同时,如何防止AI技术被滥用也成为全球关注的伦理问题。
这场价值2亿美元的合作危机本质上是技术进步与社会治理矛盾的缩影。当人工智能逐渐突破实验室边界进入现实决策系统时,如何在国家安全、商业利益与技术伦理之间建立动态平衡机制,将成为各国共同面临的世纪课题。该事件的发展态势或将重新定义全球科技企业与政府合作的游戏规则。