2025年初,美国本土人工智能企业Anthropic与国防部签署价值两亿美元的合作协议,其Claude大模型被部署至美军涉密网络,用于情报分析、战场模拟等任务;然而仅半年后,五角大楼要求企业移除两项关键安全限制:禁止用于国内大规模监控,以及禁止用于全自主致命性武器。企业方面态度谨慎,美国国防部长随即发出最后通牒。2月下旬,Anthropic被正式列为国家安全供应链风险实体,联邦机构全面停用其产品;另一家企业OpenAI则迅速接受全部合作条款,完成替代。
技术进步不应成为突破底线的理由。面对军事化应用的加速扩张,各方需要的不是以“安全”之名的单边施压与临时交易,而是经得起检验的规则、透明与问责。让技术始终服从于和平、安全与人类共同利益,才是避免“失控时刻”的根本路径。