跨国企业联手突破数据中心互连技术瓶颈 近封装光学方案或重塑AI基础设施格局

(问题) 随着大模型训练与推理需求快速增长,数据中心内部“算力涨得快、互连跟不上”的矛盾愈发明显;业内普遍认为,AI系统效率已不再只取决于计算芯片性能,节点间、机架间乃至机房内的连接能力,正成为影响整体吞吐和成本的关键因素。互连不足会引发通信拥塞、尾延迟升高、资源等待时间变长等连锁问题,最终拉低高成本算力的利用率。 (原因) 一上,速率持续提升的情况下,传统铜缆更难维持信号完整性,链路距离、功耗和电磁干扰等限制更加突出,跨机架连接与高密度部署场景尤为明显。另一上,协同封装光学被视为提升带宽密度与能效的重要方向,但热管理、制造良率以及维护更换等环节仍有难题,距离大规模商用落地还需要时间。互连技术在“能量产、易维护、可扩展”的工程化路径上,仍存在现实缺口。 (影响) 互连瓶颈的影响正在外溢:对运营商与云服务商而言,网络与互连的成本占比上升,系统扩容的边际收益下降;对AI基础设施的架构演进而言,算、存、网协同设计需求增强,传统以服务器为中心的封闭式部署越来越难匹配快速变化的工作负载。尤其在集群规模扩大、东西向流量激增时,低时延、高带宽连接成为支撑分解式、可组合基础设施的前提。 (对策) 基于此,LightSpeed Photonics与Infraeo宣布签署合作备忘录,计划共同推进面向超大规模、AI与高性能计算数据中心的下一代互连方案。按照双方规划,合作将优先在美国客户侧开展试点验证,并同步在印度建设区域生态与供应链能力,形成“需求验证+产能协同”的双轮驱动。 技术路径上,双方将重点推进两项方向:其一是近封装光学,通过将光学器件更靠近计算单元,在提升带宽密度、降低功耗与时延的同时,尽量保留模块化维护特性,为从传统可插拔光模块向更高集成度方案演进提供过渡路线。其二是PCIe光纤传输,利用光链路扩展PCIe连接范围,使低时延、高带宽互连从板内、机内深入延伸至跨机架场景,为分解式AI基础架构带来更灵活的资源调度与组合能力。 分工上,LightSpeed Photonics侧重光子学设计与高速互连设计;Infraeo负责部署、系统集成及生态开发,并开展光链路与铜缆环境的互操作性验证,推动方案更快融入现有数据中心并迭代升级。业内分析认为,此组合意在以更可落地的工程路径,绕开高集成方案短期内在散热与维护上的障碍,同时把握AI数据中心需求旺盛带来的更近部署窗口。 (前景) 从产业趋势看,数据中心互连正在从“单点提速”转向“系统级重构”:一是加速从电互连向光互连延伸,二是从固定拓扑走向可组合架构,三是从单一市场验证走向多区域供应链协同。此次合作选择在美国开展高价值试点、在印度构建区域生态与制造评估,说明了企业在全球不确定性上升背景下对供应链韧性与交付效率的重视。未来,合作成效仍取决于产品化节奏、互操作验证、规模化制造与运维体系等工程能力。特别是在800G乃至更高速率的迭代周期不断压缩的情况下,谁能更快完成从试点到规模部署的跨越,谁就更可能在新一轮互连升级中占据先机。

互连技术的进步往往决定算力扩张的边界;面对新一轮基础设施升级,行业需要的不只是实验室指标的突破,更需要可规模化部署、可持续运维的系统方案。此次合作将近封装光学与PCIe光纤互连作为更现实的推进路径,反映出数据中心建设从“追求极致性能”转向“强调工程可行性”。能在性能、成本、生态与交付之间率先形成闭环的企业,更有机会在下一代算力竞争中掌握主动。