能拍4d的大面阵fmcw lidar fpa

想用激光雷达给咱们眼前的世界画个像,4D的那种,光有个大相机还不行,核心得是个焦平面阵列(FPA)。瑞士的Pointcloud公司最近搞了个大新闻,他们用全芯片级的光电集成技术,弄出了一种能拍4D的大面阵FMCW LiDAR。别看这技术听起来挺唬人,实际上它能同时测物体的距离和径向速度,这就相当于把时间变成了第四维。虽然以前也有类似的研究,但要做到这么大的规模和性能,以前可没见过。 这台相机的核心是个352乘176的FMCW LiDAR FPA,里头挤了60万个光子元件。所有这些元件都在一颗芯片上,和相关的电子电路连在一起。跟以前比起来,像素数量翻了五倍。每个像素里头都有发射和接收的光路,还有相干探测器和电子电路。研究人员搞了个热光开关来控制光的走向,所有的开关和读出操作都是通过数字接口同步完成的。他们做了个实验,证明了在4到65米范围内都能把目标的点云拍出来,积分时间能支持3到15帧每秒的帧率。这个成果证明了这种传感器是做低成本、紧凑型4D成像相机的关键技术。这篇文章还登在了Nature杂志上。 咱们再看看具体怎么实现的。系统的图1a展示了整套设备的架构。探测用的光通过一个波长1310 nm的二极管激光器产生。先把光耦合到一个硅光子的IQ MZM上,再把这个调制器偏置到单边带模式,这样就能让光信号的频率线性变化。接着放大后就把调频信号耦合到FPA里(图1b)。因为光的频率上下都在变,所以既能测距离又能测速度。图2a是FMCW LiDAR FPA模块的示意图。校准是通过每级末端的监测光电二极管来完成的。 这种单站设计就是发射和接收的光都走同一个路,防止了像素之间互相干扰。只要一个成像透镜就行,也不用额外对光路做校准。通过调整光栅耦合器的角度提高了光耦合效率。为了更好地收集光线,他们还在芯片上直接做了凹微透镜(如图2c)。系统性能这块儿如图3所示。他们用了一个没优化的SWIR相机来拍静态和动态的场景。在图3a里,每个像素的距离信息是通过上下调频脉冲提取出来的。只要8个并行读出通道跑一遍,就能把整个场景在1秒内搞定。单点能耗只要11纳焦。 信噪比受很多因素影响,像发射功率、LO功率、光束质量这些都得兼顾。为了让散粒噪声主导热噪声得好好配LO和TIA增益。他们用监测光电二极管测了光功率再按分光比校准了一下(如图4)。总结一下,这次展示了一种高可扩展的4D成像FPA传感器,分辨率352乘176像素,能测65米远的距离。角分辨率是0.06度,单点能耗才46纳焦每像素入射光功率才178微瓦。这东西现在是最大的相干LiDAR FPA了。 为啥这么厉害?因为它把所有相关电子电路都集成到了芯片上。这种单站像素设计模块化很强,发射光功率也低让人眼安全还可靠易制造。跟CMOS相机一样在测距FOV角分辨率这些方面都很灵活能适配各种环境需求。