亚马逊这次真把cerebras给拉进了ai 推理芯片的场子,摆明了要打破英伟达在算力市场

亚马逊这次真把Cerebras给拉进了AI推理芯片的场子,摆明了要打破英伟达在算力市场一家独大的局面。现在Cerebras Systems这家估值231亿美元的AI芯片初创企业,算是遇到了个好东家。亚马逊云服务(AWS)打算把自家的Trainium3芯片和Cerebras的技术捏合在一起,专门优化聊天机器人、编程工具这些应用的推理效率。Cerebras CEO Andrew Feldman也放话了,AWS有个人开发者到全球金融机构这么多客户,新服务要是能“一键调用”,那AI的应用门槛肯定能降下来。这次合作不光是为了抢市场份额,更是科技巨头和新兴厂商联手的一个信号,让行业的技术路线竞争变得更复杂。 按照协议里的说法,Cerebras会把自家研发的AI芯片直接部署到AWS的数据中心里。Trainium3和这个芯片之间通过亚马逊的定制网络连起来,把AI推理的活儿分成了“预填充”和“解码”两步。Trainium3负责把用户说的自然语言变成AI能懂的语言格式,Cerebras则专门负责把答案给生出来。这种分工其实就是想绕过传统GPU在推理上的短板。 其实就在今年早些时候,Cerebras已经给OpenAI签了价值100亿美元的大单了。这次和亚马逊合作,算是把落地场景又给拓宽了。行业观察人士觉得这事儿挺有意思,因为大家都觉得随着生成式AI的用户突破百万级,大家现在更看重推理时的响应速度和成本。虽然训练模型还是GPU说了算,但在需要低延迟的地方,专用芯片的能效比优势就出来了。 亚马逊在声明里特意提了一下性价比这事儿,说下半年服务上线时,Trainium3还有后面的Trainium4在单位算力成本上肯定能领先市场主流GPU。虽然没点名对手,“仅剩数月调试期”的说法其实是在暗暗和英伟达上周要公布的GPU+Groq方案较劲。英伟达去年花170亿美元买下的Groq也搞推理芯片呢。 技术拆解来看,Cerebras走的路子和英伟达不一样。它的单芯片能集成数万亿晶体管,并行计算效率特别高。这种技术路线和亚马逊自研的芯片正好互补,能一起构建出覆盖训练到推理的全栈解决方案。Feldman也说了,随着应用越来越复杂,这种专用芯片的组合方案能帮企业应对更多样的业务需求。