《金融时报》搞了个大新闻,为了防止再出现类似anthropic的老赖,美国总务管理局搞了一套新规定

昨天,也就是北京时间3月7日,《金融时报》搞了一个大新闻。说的是美国政府给AI公司下了个狠招。为了防止再出现类似Anthropic这种老赖,美国总务管理局搞了一套新规定,打算给所有想跟政府做生意的AI公司“立规矩”。规定的大意是,这些公司必须无条件地把技术授权给美国政府,让政府随便怎么用都行。说白了,不管是用来造机器人打仗,还是搞点其他什么事,都得给足了权限。 这事儿主要是特朗普政府在推动。之前因为Anthropic死活不同意五角大楼无限制地使用它的模型,甚至还因为担心国内监控和无人武器系统的问题而拒绝合作。结果就是那一份价值2亿美元的合同直接被国防部给砍了。现在特朗普又不放心了,害怕那些“觉醒”的AI模型思想不端正,专门发布了行政命令要管一管。 所以这次的指导方针不光管民用市场,还特别盯着意识形态和国际法规这块。要求承包商提供的工具必须中立、不能偏袒任何一方。比如多元、公平和包容这些词儿,不能在输出的内容里硬塞进去。更狠的是,甚至要求披露模型是不是为了遵守欧盟那边的《数字服务法案》而做了修改。 这次行动其实挺全面的。美国国防部那边已经开始搞军事合同的措施了,这一边美国总务管理局也在民用领域跟进。毕竟OpenAI、Meta、xAI和谷歌这些头部公司的模型都被联邦采购服务局签了协议给机构用了。既然Anthropic惹了事儿,那总务管理局就先把它的协议给终止了。 最后,知情人士还透露说,这份草案还没最后定稿呢,政府打算先听听业界的意见再决定怎么改。