最近,美军把AI推到了战场上,效率提升了不少。这次他们只用了90分钟就处理了2.3PB的数据。美国的军队借助AI技术,把情报筛选的时间从几个小时缩短到了几秒。这个变化不仅仅影响到了军队,还会给未来国际安全规则带来巨大的影响。所以,AI到底该是辅助工具,还是直接参与决策,这个问题也变得越来越紧迫。 据新华社报道,五角大楼一直在推进军事智能化项目,给AI大量数据处理任务。以前需要人工核对和分析的目标,现在可以用模型快速识别和标注。还有一个例子显示,90分钟处理PB级数据不仅节省了人力,更重要的是把发现目标、分配火力和组织打击都压缩在同一个时间窗内。所以这个能力一旦投入实战,战争节奏就会发生巨大变化。 真正争议的地方并不在于能不能使用AI技术,而是使用到什么程度。AI作为辅助工具大家都能接受,但是一旦让AI来做决策,风险就会飙升。美国军方和科技企业在模型使用边界上一直存在分歧。 责任问题是最难解决的。如果发生误判目标或误炸设施的情况,最后责任怎么算?如果系统判断失误就能成为借口,那么国际法和问责机制就会被削弱。 联合国也一直在讨论致命性自主武器的问题。他们认为机器可以计算得更快,但开火权、升级权和目标合法性审查必须留在人手里。 技术可以帮助筛选数据,但伦理和决策边界还是需要由人来负责。所以未来战场真正的分水岭是要给AI立下不可突破的规矩。 我们当然要看到技术带来的效率提升,但必须守住人的判断、法律约束和责任归属。所以我认为最该先被写进规则的是“必须全程可追责”。