电信网不再光管传数据了,变成了ai 大规模跑起来的核心

NVIDIA 和一些电信界的大佬们联手建了一个 AI 网格,为了让分散的网络推理跑得更快。像 AT&T、T-Mobile、Comcast 还有 Spectrum 这些大公司都在搭这个网格,用上了 NVIDIA 的 AI 硬件。那些搞个人 AI 的、做视觉识别的、做机器人的(比如 Personal AI、Linker Vision、Serve Robotics 和 Decart)也都在这个网络上跑实时的 AI 应用。大家觉得 AI 要想让更多人用起来、给更多机器人和设备服务,得靠电信来当下一个前沿阵地。 在今年的 NVIDIA GTC 大会上,美国和亚洲的运营商都说了正在搞这种分布式又互联的 AI 基础设施。他们打算利用网络覆盖的优势,在边缘那边把 AI 服务搞出来赚钱。不同的运营商路子不一样:有的直接把现有的有线边缘基站给激活了,先拿来赚钱;还有的用 AI-RAN 技术,把 AI 完全嵌入到无线接入网里,这东西不光是干活的节点,还能搞边缘推理。 其实电信公司手里拿着全球最大的基础设施之一呢:大概有 10 万个分布在各地的网络数据中心。这能提供多少电力?以后富余的电量加起来能超过 100 亿瓦。这就相当于把现有的场地、电和带宽资源变成了地理上的分布式计算平台,让 AI 推理离用户和数据更近。 这事儿不光是硬件升级,更是怎么交付 AI 的结构性变化:电信网不再光管传数据了,变成了 AI 大规模跑起来的核心。