问题——推理需求激增与能耗约束并存,算力增长面临“天花板”。
随着大模型应用走向规模化部署,AI计算结构正在发生变化。
业内普遍预期,未来推理将占AI计算的大头,推理场景对成本、功耗、时延和部署密度更为敏感。
传统路径主要依赖工艺迭代与堆叠算力,但高性能往往伴随更高能耗、更复杂散热与更高总体拥有成本,算力提升与能源约束之间的矛盾愈发突出。
在此背景下,如何以新的计算范式降低“每次推理”的能源代价,成为产业界关注的关键议题。
原因——硅光平台兼容性强但存在边界,新材料与新工艺成为破局方向。
当前全球主流光计算公司多选择硅作为衬底,一方面是硅光平台与现有CMOS工艺体系兼容,便于制造与产业化;另一方面也有利于与现有封装、测试和供应链衔接。
然而,光计算要进入更大规模矩阵与更高密度集成,纯硅调制与工艺窗口等因素会带来扩展难度,迭代周期被拉长。
企业披露的信息显示,光本位科技曾通过将相变材料与硅光异质集成,完成128×128矩阵规模的光计算芯片流片验证,并在公开场合宣布其算力密度与精度达到商用标准,峰值算力超过1000TOPS,主要面向AI推理应用。
材料体系与器件集成的调整,体现了光计算从“能做”走向“可用、可扩展”的工程化需求。
影响——玻璃衬底或带来面积与能效双重变量,重塑推理芯片竞争维度。
在“从硅到玻璃”的探索中,企业给出的核心逻辑是:以玻璃衬底配合纳米压印等工艺,在保持精度的同时突破硅光平台受光罩尺寸等因素带来的设计约束,从而容纳更多计算单元,提高单芯片算力,并降低后续做大尺寸时的材料翘曲、波导损耗等难题。
企业提出的指标预期包括:更大尺寸的玻璃光计算芯片可实现“千POPS级算力”,并在能效比上迈向“千TOPS/W”量级。
其解释称,相变材料的非易失性有助于降低静态功耗,玻璃的低非线性光学效应和良好的透光与热稳定特性,有望降低光传输损耗与系统功耗,使激光器功率等系统参数具备下调空间。
值得注意的是,这类指标能否在完整系统形态下稳定兑现,还取决于封装、互连、光源与控制电路等工程要素的综合平衡。
但总体而言,玻璃衬底的引入将竞争从“先进制程+电计算”单一赛道,延展至“材料—工艺—系统协同”的多变量比拼,为推理芯片的成本结构与能效边界提供了新的想象空间。
对策——打通产业链与应用反馈,形成从工艺验证到场景落地的闭环。
光计算要走向规模化应用,关键不只是实验室指标,还在于制造一致性、良率、可靠性以及与现有数据中心和边缘设备的集成成本。
企业方面表示,已完成玻璃上光波导等光学器件制备工艺验证,波导损耗优化至低于硅光平台水平,并同步推进大规模阵列样品制备与相变材料工艺优化;同时与上游纳米压印等厂商联合优化工艺,并与下游大型企业建立研发与应用的双向反馈机制。
资本层面,该企业成立时间不长却已完成多轮融资,投资方覆盖市场化机构、互联网企业与地方国资基金,反映出市场对新型算力路径的关注度提升,也说明硬科技项目在“可验证路线图”和“产业协同”上更容易获得资源集聚。
从行业治理与产业政策角度看,推动这类新路径发展,需要在关键设备材料、工艺平台、标准测试体系以及场景试点方面形成更清晰的支撑体系;同时应重视知识产权布局与供应链安全,避免在关键环节受制于人。
前景——“全光计算系统”概念升温,产业与科研共振但仍需跨越工程化门槛。
除单芯片研发外,企业还提出以玻璃光计算为基础打造下一代全光计算系统,即尽可能让AI计算任务在光域内完成,以期同时突破算力、能效与计算效率的上限。
与此同时,上海交通大学等科研机构近期在全光计算芯片方向也有新进展,显示产业与学术界对“光域计算”正形成共鸣。
可以预见,未来一段时期,光计算更可能先在推理场景形成结构性机会:例如特定模型、特定负载、特定部署形态下的低功耗高吞吐需求。
若在封装互连、系统架构与软件工具链方面逐步成熟,光计算有望与电计算形成互补:在能耗敏感、吞吐优先的推理侧承担更多工作,而在通用性更强的训练与控制侧仍由电计算主导,最终走向混合架构的规模化落地。
玻璃光计算芯片技术的突破,不仅为解决当前人工智能计算面临的技术瓶颈提供了新思路,更为我国在下一代计算技术领域占据先发优势创造了机遇。
随着产业界和学术界的持续投入,以及技术生态的不断完善,人工智能计算正加速迈向全光时代,这将为数字经济发展注入新的强劲动力。