openai与五角大楼合作后,ai在军事上用处挺多,像简化后勤或者快速处理信息,结果就被特朗普政府

OpenAI不得不修改跟美国军方的合作条款,3月3日BBC报道了这件事。当时,OpenAI表示要把这次“投机取巧且草率”的协议改一改,特别是要加一些东西。CEO Sam Altman周一发话说,公司打算加进去明确规定禁止拿系统监视美国人。这事儿跟Anthropic和国防部之前因为Claude被用来搞大规模监控和全自动武器闹别扭有关。周五虽然他们也签了新协议,但还是引发了大家对AI打仗的方式和政府还有私企谁权力更大的怀疑。 到了周六,OpenAI出了个声明说,跟五角大楼的合同比以前的更有保障。可到了周一,奥特曼又在X上发推说要再改改,保证系统不会故意用来对美国公民做国内监视。作为新修改的一部分,国安局这些情报机构也不能直接用他们的系统了,除非合同再变一变。奥特曼还觉得当时急着在周五发消息挺错的,“问题太复杂,需要好好沟通”,“当时想缓和局势别变糟,但看这就像投机取巧和草率行事”。 OpenAI宣布跟五角大楼合作后用户们反对声很大。听说他们的Chat GPT移动应用卸载量在周六一下子飙到295%,平时也就9%。与此同时Anthropic的Claude冲到苹果商店榜首了,周二还在那位置上挂着。Anthropic不肯放弃自己的企业红线(就是不用技术做完全自主武器),结果就被特朗普政府列黑名单了。但就在禁令发下去没几个小时,Claude在美以对伊战争里用的事就被爆出来了。 五角大楼不愿意就跟Anthropic的交易发表看法。AI在军事上用处挺多,像简化后勤或者快速处理信息。美国、乌克兰和北约都在用Palantir的技术做数据分析。英国国防部最近签了个2.4亿英镑的合同跟他们买东西。去年年底BBC采访过把Palantir的Maven平台整合进北约的人。 那边的路易斯·莫斯利说软件把卫星数据情报报告啥的全聚一块了,然后给Claude这种商业AI系统去分析,“帮人做出更快、更高效、最终在该动手时更有杀伤力的决定”。但AI语言模型容易犯错甚至瞎编——这叫幻觉。 特遣部队的阿曼达·古斯塔夫中校强调他们一直有人工监督,“总要有人参与决策”,“绝不会让AI替我们做决定”。跟Anthropic不一样的是Palantir不支持全面禁自动武器,只说“得有人参与其中”。牛津大学的塔德奥教授觉得Anthropic退出后,“最有安全意识的参与者”都走了,“那确实是个问题”。