ai算力能把数据中心的电力系统给改造成实时监控的状态

美国的Utilidata公司跟欧洲的NexGen Cloud合作了,打算用AI来解锁数据中心里隐藏的算力。现在大模型训练这么火,全球的数据中心都在愁电不够用。为了解决这个问题,这两家公司联手搞了一个叫Karman的电力编排平台。这个平台用的是英伟达定制的GPU模块,能把数据中心的电力系统给改造成实时监控的状态。它会根据每个机架的耗电情况动态调整供电,把平时因为冗余设计而浪费掉的那部分电拿出来干活。 举个例子,以前为了保证不停电,大家都喜欢搞过度建设。比如一个机架明明配了四路电源,可实际只用75%的电,剩下的25%都闲着。Karman系统每秒能采集上百万个数据点,然后在20毫秒内就做出反应。它既能保证系统稳当,又能把这些备用的25%的电力资源利用起来。这种做法对那种忽高忽低的推理任务特别管用。测试结果显示,这套系统能把推理任务的电力利用率提高18%到22%。 NexGen Cloud的CEO Josh Brumberger说,他们先在蒙特利尔的示范中心试试水,后面还会用到北美的一些AI工厂里。他们的Hyperstack云平台本来就靠GPU服务吃饭,这次加入这项技术后,竞争优势会更大。对于那种老旧的5到10兆瓦的中心来说,用了这套技术后AI算力能翻倍还多(1.8到2.3倍),而且不用等电网花几年时间去升级。 英伟达还给这个平台提供了每秒24万亿次的运算能力,专门用来处理那些海量的监测数据。从长远看,随着对AI算力的需求像指数一样疯涨,电力优化技术肯定会变成各家的核心竞争力。那些能突破物理供电限制、让算力密度变得更大的公司,未来肯定会占上风。这两家公司的合作不光证明了这技术行得通,也给行业指出了一条怎么赚钱的路子,估计会引来一波新的技术比拼和产业合作热潮。