美国科技企业高薪招募武器专家引争议 人工智能军事化应用风险亟待国际监管

问题—— 随着生成式技术能力快速提升,如何防止通用模型被用于制造或扩散核、化学、生物及高爆等大规模杀伤性武器相关知识,正成为全球安全治理的新课题。

Anthropic近期发布招聘信息,拟聘请具备至少5年化学武器和/或爆炸物防御经验的专业人士,并要求了解放射性散布装置等风险场景。

企业方面称,设岗目的在于降低其模型在极端情形下被“灾难性滥用”的可能,同时其团队已开发并部署用于识别、拦截核武器相关滥用请求的过滤机制。

原因—— 一是能力门槛下降带来的扩散风险上升。

通用模型在资料归纳、流程拆解、步骤生成等方面表现突出,若被恶意利用,可能在信息整合、路径推演、规避审查等环节放大危害。

二是军民融合场景使“用途界定”更为复杂。

近来,美国政府多次呼吁科技企业参与军事项目,外界对相关技术被引入作战支持、情报分析乃至武器链条的担忧上升。

三是规则体系相对滞后。

部分研究人员指出,围绕模型与敏感武器知识的结合,目前缺乏具有普遍约束力的国际规范与透明披露机制,公众难以获知企业内部治理的标准、边界及效果评估。

影响—— 从积极面看,企业引入武器防护与风险治理人才,意味着对“安全前置”的重视正在增强,有助于改进敏感提示识别、红队测试、拒答策略与日志追踪等制度化安排,并在一定程度上降低误用概率。

与此同时,争议亦随之显现:有专家质疑,将敏感化学品、爆炸物和放射性武器相关信息纳入模型训练、评测或对抗测试,即便设置“不得输出”的规则,也可能形成新的泄露通道或被绕过的漏洞。

此外,不同企业在安全投入与商业竞争之间如何平衡,亦受到关注。

公开信息显示,行业内亦有企业招聘生物和化学风险研究岗位,并给出较高薪酬,反映相关领域“安全人才”需求快速增长。

对策—— 业内普遍认为,仅靠企业自律难以应对跨境扩散与军用外溢风险。

治理上可从三方面发力:其一,完善分级管理与能力测评,对涉及大规模杀伤性武器、关键材料与高危工艺的内容设立更严格的访问控制、身份验证与可追溯机制,并以第三方评估提升可信度。

其二,加强透明披露与审计,公开安全策略框架、拦截效果指标、误报漏报纠偏流程,在不泄露安全细节的前提下接受社会监督。

其三,推动国际对话与规则协同,在出口管制、模型能力评估、安全标准互认等方面形成最低共识,减少监管套利空间。

前景—— 值得注意的是,Anthropic与美国国防部围绕“供应链风险”等问题存在诉讼与分歧,此类摩擦从侧面表明:当通用技术进入国家安全与军事采购体系,商业公司治理承诺与政府使用需求之间的张力或将长期存在。

未来一段时期,技术迭代与地缘安全压力交织,企业通过设岗、过滤与评测来降低风险可能成为行业常态,但若缺少跨国规则、可核验的治理指标与明确的军用边界,“安全治理竞赛”仍可能被“能力竞赛”掩盖,风险外溢不容低估。

AI技术的发展是一把双刃剑,其巨大潜力与风险并存。

Anthropic等企业主动建立防护机制的做法值得肯定,但这只是问题的一个方面。

更根本的解决之道在于建立国际共识,制定具有约束力的法律框架,明确AI技术在敏感领域的应用边界。

只有在全球范围内形成统一的治理标准,才能既保护AI产业的创新活力,又有效防范技术被滥用的风险。

当前,国际社会亟需在这一问题上加强对话与合作,推动从产业自律向制度化治理的转变。