让空客Wayfinder替你给飞机当眼睛吧,这就把“盲降”变成了现实。以前学员单飞时,教练总把眼睛盯着跑道这种话挂嘴边,虽然这套“看路”本事现在也被装进了深度学习模型里,让人不再依赖动辄几千万欧元一套的CAT III ILS,靠机头的一台相机就能搞定降落。这也不怪大家嫌ILS贵,全球这4000来个机场里,装得起的都不到1000个,真正达到CAT III标准的还不到100个。 为此空客搞出了ATTOL项目,把传感器和电脑塞进了飞机里,打算让它自己“看懂”跑道。以前做计算机视觉全靠人工设定特征,环境一变就歇菜。现在卷积神经网络CNN直接从数据里自己找规律,只要训练样本丰富,晴天下学到的经验就能用到云层、雾霾甚至跑道不一样的地方。 跑道上没有数字下滑道怎么办?飞机自己的位置和朝向再结合卫星地图的3D坐标,就能把像素坐标直接算出距离偏差。至于真机数据不够用?X-Plane模拟器能把机场精细到每一块砖,甚至还能弄出蛇形进近和破碎云层这种极端情况。再用ReShade着色器还原出真实相机的效果,网络就能先在数字世界里练好了手。 过去要把网络拆成分类、检测、回归三部分来用。Wayfinder干脆把任务合并成一张网:共享层先找边缘和标记这些通用特征,任务层再并行输出边界框坐标、距离这些结果。几公里外的跑道照样能找到,距离误差能控制在个位数百分比。 现在系统还在真实跑道上慢慢验证。等合成数据练出的模型能适应真实场景后,模拟器和实机之间的那层“滤镜”就会被打破。再加上递归神经网络RNN来记录时间轴上的变化,融合跑道长度这些先验知识,哪怕是去没见过的机场也能立马校准下滑道。 从A320neo到未来的电动倾转翼飞机,视觉导航正在把“目视飞行”升级为“目视自主”。以后不用再盯着仪表看了,只要相信窗外被算法看懂的那片天就行。