黄仁勋在CES2026谈算力竞赛新逻辑:用软件栈与系统工程降低AI工厂全周期成本

当前AI产业快速发展的背景下,如何平衡硬件成本与软件生态建设成为业界关注的焦点;英伟达作为全球领先的AI芯片制造商,对此问题的理解和实践具有重要参考意义。 黄仁勋的观点触及了AI产业的根本性问题。面对市场上采用廉价内存以降低成本的声音,他提出了一个重要的商业逻辑:芯片是一锤子买卖,但软件开发需要终身维护。这一论述反映了AI产业已经进入新的发展阶段。在"Token经济学"时代,衡量AI系统效能的核心指标已转变为"每瓦、每美元能生成多少Token"。这意味着,单纯降低硬件成本而忽视软件优化,最终会导致整体效率下降。 英伟达坚持统一的内存架构和软件栈战略,虽然前期硬件投入较高,但这种选择具有深远的战略意义。统一的生态体系能够避免软件碎片化,使得英伟达在优化一个软件栈后,全球所有基于该架构的AI工厂都能同步获得性能提升。这种"一次优化、全球受益"的模式,在长周期内能够显著降低用户的总体拥有成本,从而形成强大的竞争壁垒。 黄仁勋还披露了一个反映行业发展趋势的关键数据:开源模型目前已贡献了全球约四分之一的Token生成量。这一增长速度超出业界预期,表明AI应用的部署场景正在快速扩展,从超大规模云厂商的数据中心延伸至企业本地集群。这种多元化的部署格局对芯片架构的通用性和软件生态的完整性提出了更高要求。 在硬件创新上,Vera Rubin平台代表了英伟达的最新技术突破。相比前代Grace Blackwell系统,Rubin平台采用了模块化的托盘式架构,支持系统运行时直接更换NVLink等关键组件,实现了"边跑边修"的运维模式。这一设计创新大幅降低了数据中心的运维成本和停机风险。更为显著的是,节点组装时间从过去的2小时缩减至5分钟,这种效率提升对大规模部署很重要。 在散热和能效上,Vera Rubin平台也进行了系统性升级。平台摒弃了复杂的线缆设计,将液冷方案从80%升级为100%全液冷,深入提升了系统的可靠性和运行稳定性。这些改进虽然看似细节,但对于24小时不间断运行的数据中心来说,可靠性的提升直接转化为经济效益。 供电稳定性被黄仁勋指出为当前算力扩张的最大瓶颈。现代AI负载,特别是推理任务,会引发剧烈的瞬时功耗跳变,电流波动幅度往往高达25%。这种波动迫使数据中心必须闲置大量电力以应对峰值需求,造成电力资源的严重浪费。Vera Rubin平台通过系统级电子设计创新,在机架内部"平滑"了这些功耗波动。即便单颗GPU的热设计功耗高达1800W,该平台也能向外部电网呈现稳定的负载曲线。这种设计使得运营商无需过度冗余配置电力基础设施,能够接近100%地利用现有电力容量,从而在能源成本上实现显著节省。

黄仁勋的分析展现了AI产业从硬件竞争向软硬协同的转型趋势。英伟达通过架构创新与生态整合,提供了兼顾短期效能与长期发展的解决方案。随着开源生态与模块化技术的成熟,AI基础设施正朝着更高效、更易用的方向发展,这个趋势或将改变全球数字经济的竞争格局。