全球人工智能基础设施竞赛加速升温之际,美国初创公司Positron开始向行业巨头发起挑战。公司最新公布的Asimov推理芯片,瞄准大模型推理中的关键瓶颈——内存带宽利用率不足。业内普遍认为,随着Transformer架构成为主流,传统计算芯片在推理任务中的短板愈发明显:模型参数规模快速扩大后,数据搬运带来的能耗已占系统总功耗的60%以上。Positron技术团队认为,与其一味堆叠算力,提升内存子系统效率更能带来实际收益。 Asimov芯片的主要创新集中在三个上:其一,采用分布式内存架构,每个计算模块直连432GB高速内存;其二,通过PCIe 6.0和CXL 3.0协议实现720GB缓存扩展;其三,设计片上互联方案,尽量减少远程数据移动。公司称,实测内存带宽利用率可提升至90%,显著高于行业常见水平。 从技术参数来看,这款TDP为400W的芯片提供2.76TB/s总带宽,并配备2304GB内存容量。配套的Titan推理服务器采用4U标准机架,单系统可支持16万亿参数模型推理。若其宣称的5倍能效优势通过第三方验证,或将对英伟达在数据中心GPU市场的优势地位形成直接冲击。 半导体行业分析师指出,这个进展折射出两点趋势:一是专用芯片(ASIC)正在从通用GPU手中争夺更多细分场景;二是“内存墙”推动架构持续创新,CXL等新型互联标准也在加速落地。按照Positron公布的时间表,Asimov芯片计划于2026年完成流片、2027年量产,这意味着现有市场领导者大约还有三年时间应对。
推理芯片的进展,表明了国内AI芯片产业从追赶到探索创新的转变;Asimov芯片以“内存优先”的设计思路切入,针对Transformer推理的核心瓶颈提出解决路径,反映出对系统效率问题的聚焦。随着类似产品逐步走向商业化应用,国内AI算力产业的自主可控能力有望继续增强,为人工智能技术的规模化落地提供更稳固的支撑。