谷歌为了争夺AI芯片市场份额,不惜花大价钱给数据中心投资,打算用100万颗TPU芯片配合Gemini AI模型,彻底把英伟达给压下去。谷歌正盘算着靠砸钱来扩大自家的生态,毕竟他们手头的银子多得是。这招确实管用,连Anthropic这样的初创公司都在用谷歌的TPU了。不过呢,想要大规模铺开还挺难,合作伙伴那边产能老是跟不上,外加云计算的竞争对手兴趣不大,毕竟他们手里握有的大多是英伟达的处理器。 为了让更多人用上TPU,谷歌决定给那些数据中心伙伴多投点钱。他们正在谈一笔价值1亿美元的买卖,把Fluidstack这家云计算初创公司的估值推高到了75亿美元。Fluidstack属于那种“新云”公司,专门给做AI的客户提供算力服务。CoreWeave就是这行当里比较大的一家,主要提供英伟达的GPU资源。谷歌的算盘打得很响,想通过把Fluidstack做大做强,顺便也拉动更多算力提供商来用自家的TPU。 除了Fluidstack,谷歌还跟其他数据中心伙伴聊过扩大合作的事。知情人士透露说,谷歌已经给Hut 8、Cipher Mining和TeraWulf这几家相关项目提供了融资担保。这些公司以前是干加密货币挖矿的,现在都在转型做数据中心业务了。不过呢,这几家公司的人对媒体的问询都不怎么搭理。 谷歌云计算部门最近又重新讨论起了一个老话题:要不要把TPU团队单独分出来弄成一个部门?这样或许能方便他们引进外部资本。但问题是这招能不能行得通还不好说,毕竟谷歌的云业务太依赖英伟达的芯片了。发言人那边表示目前还没这打算,他们认为把芯片团队跟其他部门绑在一起更有好处。 自从2018年开始通过云服务卖TPU算力以后,谷歌的传统做法是用云计算部门去拉用户。不过现在看来,他们也开始直接向外面卖芯片了。行业研究机构SemiAnalysis也证实了这一点。这些动作其实就是想把市场做大一点。AI客户都夸TPU在训练和推理任务上挺厉害,所谓“推理”就是指像聊天机器人那样生成输出的过程。 一个能说明TPU重要性的迹象是:负责芯片和网络开发的Amin Vahdat最近被提拔为了AI基础设施的首席技术官,直接向CEO桑达尔·皮查伊汇报工作。去年4月谷歌刚发布了第七代TPU叫Ironwood,说这是专为推理设计的。工程师们都说比起原来的GPU游戏芯片来说,在做那种不需要极高精度的大规模计算时TPU更有优势。 Alphabet现在是跟博通(Broadcom)一起搞设计生产的,代工的活儿交给了台积电来干。不过扩大出货量可能还是会遇到麻烦:由于AI需求太猛导致产能紧张,台积电很可能会先把资源优先给英伟达而不是谷歌用;再加上全球存储芯片短缺也影响了供应链。 这一年来不少做AI的公司都开始对谷歌TPU产生兴趣了,想找更省钱的算力用,也不想老依赖英伟达一家。去年11月就有消息说Meta Platforms在考虑用谷歌的芯片;到了今年10月Anthropic也宣布要加大对谷歌云计算技术的使用力度。 但即便如此,来自大的云服务商的兴趣似乎还是不太热烈。部分原因是它们把谷歌当成了竞争对手来看待;亚马逊的AWS也在搞自家的AI芯片嘛。