英特尔与英伟达达成了合作,要一块儿把nvlink 技术融进定制的处理器里。这就像两家公司在硬件上

2023年,英特尔公司跟英伟达达成了合作,要一块儿把NVLink技术融进定制的处理器里。这就像两家公司在硬件上直接合作,给大家看了个新样子,让大家都在琢磨以后的AI计算架构到底怎么弄。以前CPU跟GPU主要是通过PCIe接口来连的,虽然这标准一直在变,但速度还是跟不上顶级GPU的飞快提升。数据在这两块芯片之间跑来跑去太费劲,成了限制整体性能的一大坎儿。 英伟达自己研发的NVLink技术,就是专门用来打破这一僵局的。它能让多个GPU或者GPU跟CPU之间高效地直接说话和共享内存。比起现在常用的PCIe 5.0标准,NVLink的带宽高了很多倍,延迟也大大降低了,这样就能把多块GPU一起干活儿的潜力给彻底释放出来。以前这个技术只在英伟达自己的高端平台上用。 英特尔把这个技术引进他们的至强处理器平台,好处可不少。首先就是提高了他们在高端AI和HPC市场的竞争力。以前的至强平台没了NVLink的原生支持,对接最新的英伟达GPU就有点力不从心。现在合作了之后,基于英特尔x86架构的服务器就能更顺溜地搞大集群了。其次也说明了英特尔在这局势下调整策略很务实。 英伟达在AI这块本来就有GPU硬件和CUDA软件的优势。英特尔这回选择合作而不是硬刚,把行业领先的互连技术和自家成熟的x86平台合二为一,短期内能帮他们保住甚至扩大数据中心的份额。特别是那些既需要通用算力又要顶级GPU加速的复杂任务里。 从产业生态的角度看,这次合作不止是技术拼接那么简单,预示着计算基础可能朝着更深的“芯-芯协同”去走。定制化处理器不光是接口连起来这么简单,还涉及到内存架构、缓存怎么统一、任务怎么调度这些更深层的优化工作。这样从系统层面提效比光靠单个组件强多了。 有分析说这合作可能跟2023年的资本合作有关系,但最后做成产品是市场需求在推波助澜。面对超大的数据中心、云服务公司和搞科研的机构对极致效率的追求,提供那种集成好就能用的解决方案比单纯拼指标更有吸引力。 英特尔这就增强了自家平台对主流AI硬件的亲和力,英伟达也把技术标准的生态边界拓宽了不少。这两家在定制处理器这块儿的联手合作是个生动的例子说明在AI时代里竞争得越来越激烈。大家都得靠抱团取暖才行。这种合作模式正成了推动行业进步的主要路子之一。