仿生“凝视”激光雷达芯片实现四维成像演示 推动机器视觉从粗放扫描迈向精准感知

生物进化塑造了高效的视觉系统;鹰隼能在高空锁定地面猎物,人眼也能在复杂场景中迅速抓住关键信息,这背后都离不开视网膜中央凹的精细分工——在注意力资源有限的情况下——生物可以灵活分配视觉能力——把感知重点落在关键目标上。如今,此策略正被科学家借鉴,用来打造机器的“眼睛”。当前,自动驾驶、具身智能、低空无人机等产业加速发展,对机器视觉提出更高要求:既要“看得清”,也要“看得全、看得快”,而传统技术路线逐渐显露瓶颈。业界常用“堆料”方式提升性能,例如增加激光雷达通道数、提高采样率来换取更高分辨率,但随之而来的是光电器件数量上升、后端处理带宽陡增,成本与功耗很快逼近上限。尤其对调频连续波激光雷达而言,光源稳定性与扫频线性度要求极高,任何偏差都可能明显拉低探测精度。北京大学王兴军教授、舒浩文研究员团队联合香港城市大学王骋教授团队、上海交通大学周林杰教授团队受生物视觉启发,提出“微并行”新架构。其核心思路是按需调度激光雷达的光谱与通道资源,将“全局覆盖”和“局部高分辨”拆分实现,从机制上避免为追求分辨率而盲目增加硬件。具体实现中,可调谐外腔激光器与薄膜铌酸锂电光频梳协同工作:前者承担信号调制与大视野扫描;当需要重点观察时,后者并行生成多载波信号,对局部区域进行“加密采样”。实验结果显示,在预先选定的重点区域,系统可实现约0.012度的角分辨率。以100米距离计算,这相当于能分辨硬币大小的间隔。更关键的是,该方案通过波长与频域资源调度实现分辨率扩展,不再依赖硬件堆叠,为芯片化、模块化感知方案打下基础。该成果的意义也不止于“看得更清”。系统在获取三维几何信息的同时,还能同步解析目标速度、多普勒特征与反射率等信息。配合可见光相机协同感知,激光雷达提供的三维结构与相机提供的纹理、颜色信息可叠加到同一坐标系中,使机器不仅能“看见形状”,也能“看见外观”,从而在复杂动态环境中更准确地识别目标、理解场景。基于这种“按需增强局部细节”的能力,未来有望将其封装为传感器模块,在不明显增加体积与功耗条件下提升关键区域探测精度。该研究成果已在线发表于《自然·通讯》,为集成光子学带来新的进展。王兴军表示,这一方案可为下一代自动驾驶、具身智能提供高分辨率、低功耗且更灵活的感知“眼睛”。随着芯片化感知模块与相机、毫米波雷达等多模态传感器更融合,未来或将出现兼具广视场与高精度的感知系统,推动仿生机器人的形态与能力持续演进。

从借鉴生物视觉到突破其局限,这项来自中国团队的创新工作不仅为机器感知提供了新的解题思路,也展示了学科交叉的实际效能。当芯片开始具备更接近生物的感知与调度能力,一场由基础研究推动的产业变革或许正在发生——它可能重新定义智能机器与物理世界的交互方式。(完)