最近Axios提到,五角大楼跟Anthropic的关系特别僵,这其实也是很多公司在搞AI时都会碰到的麻烦。事儿是这样的,五角大楼跟Anthropic就用AI的事谈崩了,主要是担心都指望着一个大模型干活风险太大。专家都建议企业多弄几个小的、便宜点的模型别老盯着一个巨头。尤其是国防部,更应该自己弄一套AI体系,免得被供应商绑死或者跟政策撞车。 这个难题让所有那些靠单一前沿AI模型做产品的CTO都犯难:要是明天访问权限说没就没了,想换个别的家去用,这得有多费劲?有消息说,国防部长Pete Hegseth周二早上就把Anthropic的CEO Dario Amodei请去五角大楼了,专门就Claude这事儿谈一下。 五角大楼其实挺郁闷的,他们觉得Anthropic给Claude加的限制太烦人。Anthropic那边倒是说要放松一下,但死活不允许把技术拿去监控美国人或者开发没人管的武器。文章也提到,要是非要把原来根深蒂固的Claude换掉换成现在的技术差一点的实验室去顶上来,这可是个大工程。 不过真的有那么难吗?NeuroMetric AI的老总Rob May可不这么觉得。NeuroMetric的本事是能把公司的AI流量全都分析一遍,然后该去哪路由就去哪路由。比如开源的选项或者自己做的小模型都能用上。May告诉The New Stack说:“我们的做法是,让公司把我们接进来他们的流量。我们一看,就会说你看这些请求其实用开源模型跑就行,有些甚至你自己就能搞定。” 他觉得那些大模型很多时候都是大材小用,处理多步骤的代理工作流太慢了也太贵了。他们家的工具就是专门干评估模型、排好序还有自动化生成小模型这些活的。May说:“那些做前沿模型的公司就像以前的大型机一样。你确实得靠他们给你展示AI能做什么。不过咱们也看到了,用这些模型用久了的人就会发现自己一半的请求根本没必要发给Anthropic或者OpenAI。那是大材小用,而且还得多花钱。” May还补充说:“那些大模型代表了你们合作过的最聪明的人。你会带着特别简单的事儿去问他们吗?比如‘嘿,你能回答个客户支持的小问题吗?’肯定不会吧?那就是浪费人家时间。你的AI工作量也是这样的结构。” 企业要想活得好得要有两样东西:一个是能指挥多个模型干活并且还能自动切换的调度层;另一个是能在真实工作中按照成本、速度和准头去测试新模型的评估框架。May还觉得国防部应该自己去搞搞Meta的Llama这种开源模型或者做一些人类反馈强化学习的训练,别总指望外面的商业供应商。他说:“未来的战争全靠AI了,国防部肯定得有这些技术。我现在的想法是他们得自己造轮子。” NeuroMetric就主打一个帮企业省钱还能让AI工作流跑得更快。May给The New Stack算了一笔账:“要是有个12步的代理流程每一步都得用Claude,那每个步骤得耽误800毫秒到2.5秒左右。这样下来整个工作流就会拖到25秒那么长。所以要是能让其中几步用小点的模型跑就便宜多了也快多了。” 其实不光是国防部这一边有难处。不管是因为政策打架、定价太狠还是地缘政治压力,这种情况在别的公司身上也很常见。Anthropic哪怕面对着2亿美元这么大一笔政府客户的订单也不松口给政策上的宽松口子,这说明前沿AI供应商更看重自己的规矩而不是客户的需求。May问了个问题:“他们是不是该为了联邦政府去违反自己的服务条款?如果联邦政府想拿这些模型去帮他们计划摧毁加勒比海的毒品船——谁也不会容忍这种事发生的。” 所以Anthropic现在就挺为难的。Axios报道说上午的这场会估计不会是一顿和气饭。“这就是一场‘要么就干,要么就滚蛋’的会面。”一位高级国防官员告诉媒体这么说的。