这50%的空间节省太让人意外了。孙仲研究员的北京大学团队搞出了个大新闻,他们手里的这块新型模拟计算芯片,让我们在算力和能效这两个老难题上终于能喘口气。在Netflix规模的数据集训练中,它不仅速度比同类数字芯片快12倍,连能效比都甩了228倍。这完全是通过把数字计算变成了物理特性的直接表征。 他们巧妙地用阻变存储器(RRAM)的电导值来干活,省去了数据来回搬运的巨大开销。最厉害的是那个可重构的紧凑型电路设计,用最少的基础单元就完成了复杂的矩阵运算。在图像压缩测试里,质量几乎和顶级全精度计算机一样好,结果也能做到对大众开放的Netflix推荐任务中误差率高度一致。 传统数字芯片面对这么大的矩阵运算任务总是显得笨重低效。科研团队这次另辟蹊径,转向了模拟计算和新兴存储技术融合的路子。他们在硬件层实现了“存算一体”,直接用RRAM的物理特性处理数据。这种设计让运算流程最耗资源的步骤变成了“一步求解”,从源头上优化了物理面积和功耗架构。 这一成果不仅展现了中国在底层硬件创新方面的实力,也给了我们一个全新的技术路径。专家认为这是我国坚持自主创新的有力例证,有望率先在智能推荐、高清流媒体处理等场景催生技术革新。这种高能效智能芯片的成功研制,无疑为数字经济高质量发展注入了强劲的“芯”动力。 这个芯片技术可以帮我们突破制约技术突破的关键瓶颈。随着人工智能深入各行各业,数据处理需求增长得像指数爆炸一样。在这种背景下,计算硬件的性能与能效成了最要命的拦路虎。北京大学的这一突破给我们提供了具有前瞻性的“中国方案”,证明了模拟计算在实现高性能低功耗人工智能方面的巨大潜力。