美军方施压要求无限制使用大模型引争议 美初创企业以安全底线拒绝并寻求合作空间

美国国防部近期对从事人工智能研发的企业展开施压。

据美国媒体报道,国防部长向相关企业提出要求,希望其放开对大规模军事应用的限制,允许国防部在所有合法军事用途中使用其开发的先进语言模型技术。

国防部还以"供应链风险"相威胁,提出若企业不在规定期限内遵从,将被列入风险企业名单,并可能援引《国防生产法》进行强制措施。

这一施压行动引发了业界关注。

相关企业负责人随即发表声明,明确表示拒绝国防部的要求。

该企业强调,虽然理解军事决策应由美国防部制定,也从未对具体军事行动提出异议,但某些应用场景超越了现有技术的安全范畴,无法无条件开放。

企业拒绝的焦点集中在两个具体方面。

其一是在美国国内进行大规模监控应用。

其二是完全自主武器系统的开发,即不需要人类干预、由系统自动选择并攻击目标的武器装备。

企业方面指出,这两类应用从未纳入与国防部的既有合同范畴,在当前技术发展阶段,也不应该贸然涉入。

从企业声明看,其拒绝的理由并非简单的商业考量,而是基于对技术伦理和安全防线的坚守。

企业负责人明确表示,这些威胁"不会改变我们的立场",强调无法在违背良知的前提下接受要求。

这一表态体现了人工智能企业在快速扩张背景下对底线的重申。

值得注意的是,企业的拒绝并非完全的对抗态度。

其负责人在声明中表示,企业理解国防部有权选择最合适的技术承包商,并认可国防部在国家安全中的重要角色。

企业方面表示,鉴于其技术对美军具有重要价值,希望国防部能够重新审视其立场,在保留现有安全保障措施的前提下,继续为国防部及战术人员提供服务。

这种措辞既坚守了原则,也为后续的对话和协商保留了空间。

背景来看,这一冲突反映出当代军事与科技领域的深层矛盾。

一方面,人工智能技术在军事应用中具有巨大潜力,可以显著提升国家防御能力和军事效率。

另一方面,不加限制地使用先进人工智能技术,特别是在自主武器和大规模监控领域的应用,可能引发严重的伦理和安全隐忧。

国际学术界和政策制定者对此也存在广泛争议,许多国家和国际组织正在探索如何在安全框架下推进人工智能的军事应用。

这次分歧也暴露出美国内部关于人工智能治理的不同看法。

国防部代表的是对军事应用的迫切需求,而企业方代表的是对技术安全和伦理责任的强调。

两者的对立最终将影响美国人工智能技术在军事领域的发展方向。

这场军方与科技企业的对抗,不仅关乎单一公司的商业利益,更触及人工智能时代的技术伦理与国家安全边界。

在全球范围内,类似的争论或将促使各国重新审视军事技术应用的监管框架,确保技术进步不以牺牲伦理底线为代价。