问题:联邦禁令与前线使用出现“时间差” 据外媒3月1日报道,尽管美国总统特朗普日前在社交媒体上批评Anthropic以服务条款“要挟”国防部门,并指示联邦机构“立即停止”使用其相关技术产品,但在该表态后不久,美国与以色列2月28日对伊朗实施的军事打击行动中,美军仍被曝使用Anthropic旗下“克劳德”工具。
知情人士称,美国驻中东的中央司令部及多个全球司令部均在不同环节使用该工具,涉及情报评估、目标识别和模拟战斗场景等。
相关司令部对报道未予置评。
舆论认为,这一“禁令”与“实用”并存的现象,反映出新型信息工具在军事体系中的嵌入程度已较深。
原因:军方需求刚性与安全边界分歧叠加 从表面看,争议起于合同条款与使用范围。
报道显示,五角大楼近期要求Anthropic放宽模型使用限制,涉及“禁止大规模国内监控”“禁止完全自主的致命武器”等安全约束。
Anthropic方面则坚持认为,相关模型不应被用于美国境内大规模监控等用途,并拒绝修改关键限制条款。
谈判自2月中旬起陷入僵局后,五角大楼提出“最后通牒”,要求企业在限定日期前签署协议并授予更高访问权限,否则将面临合同终止及被列入“供应链风险名单”的后果。
特朗普随后宣布“停用”并设定六个月退出期,国防部长也宣布将其纳入“供应链风险”范畴并启动替换。
深层原因在于两方面:一是军事行动对高效率信息处理的刚性需求不断上升,工具一旦进入流程,就与作战节奏、人员培训、数据接口深度绑定,短期难以整体迁移;二是美国国内在“以安全换效率”还是“以边界控风险”问题上分歧明显,政府部门更强调战时可用与快速授权,企业则担心越界使用带来法律、伦理与声誉风险。
影响:短期替换成本高,长期治理争议外溢 短期看,外界普遍认为替换并非一纸命令即可完成。
业内人士指出,用其他模型全面替代既有工具需要数月时间,涉及权限体系、数据格式、接口适配、人员训练与验证评估等一揽子工作。
由此出现“政策已出、系统仍用”的窗口期,客观上增加管理难度,也加剧对合规责任归属的争议。
中期看,“供应链风险”标签可能对企业政府订单、投融资预期及行业合作产生连锁效应。
美国科技界对此反应强烈,部分企业员工联署公开信,质疑以“封杀一家”方式向行业施压,担忧形成以行政力量改写技术边界的先例。
长期看,该事件将美国大模型军用的治理难题推至台前:当模型被用于情报研判、目标识别乃至战场推演,如何界定“辅助决策”与“自动化打击”的边界,如何防范训练数据、调用日志与敏感信息外溢,如何建立可审计、可追责、可复核的链路,均将成为绕不开的制度议题。
对策:在“可用”与“可控”之间重建规则 从降低风险与提升透明度角度,专家建议相关部门至少在三方面补课:其一,完善军用大模型的采购准入与分级管理,将使用场景按风险划分并匹配不同的权限、审计和安全评估要求;其二,建立第三方测试与持续评估机制,覆盖偏差、幻觉输出、对抗样本、数据泄露等关键指标,并形成可追溯的责任链;其三,推动合同条款标准化,在禁止领域、授权范围、数据处置、人员责任等方面形成统一模板,避免在战时压力下反复“临时加码”或“临时放宽”,引发政策摇摆与市场不确定性。
前景:军方依赖将持续加深,制度化监管势在必行 可以预见,随着军事信息化、智能化加速推进,美国军方对大模型能力的依赖仍将上升,未来类似分歧或将更多出现于不同企业、不同模型与不同战区场景中。
六个月过渡期能否真正完成技术替换,取决于替代产品成熟度、接口迁移效率以及监管规则能否同步落地。
更值得关注的是,若将“供应链风险”工具化、政治化,可能进一步加剧政府与科技企业之间的不信任,反而不利于形成稳定、可持续的安全合作框架。
当算法开始决定战场目标的生死,人类正站在科技伦理的十字路口。
Anthropic事件不仅是一场商业合约纠纷,更是对"技术为谁服务"这个时代命题的严峻拷问。
在国家安全与技术伦理的天平上,任何单方面的压倒性胜利都可能带来不可预见的后果。
如何构建兼顾创新活力与责任底线的治理体系,将成为检验各国科技战略成熟度的试金石。