苹果三款视觉智能设备曝光

苹果近日有三款搭载“视觉智能”的新设备曝光,有彭博社记者马克·古尔曼爆料,苹果正全力研发AirPods、智能眼镜和一个吊坠式设备。这三款产品都离不开Siri的协助,给用户提供视觉信息交互体验,而iPhone也成了这些设备工作的关键搭档。苹果CEO库克曾多次提及这一战略,把视觉智能纳入Apple Intelligence计划,极大提升了用户在搜索和内容交互上的体验。比如iOS 26系统推出后,它不仅能用相机按钮进行翻译,还能把图片中的信息轻松存入日历。现在用户只需点击相机按钮就能识别周围环境,这个功能也会与Apple Intelligence进行紧密配合。ChatGPT也给iPhone 16增加了截图识别功能。目前,用户可以拍摄图片或截图后,给OpenAI的ChatGPT发消息询问详情。不过苹果的野心不仅限于此,他们正在自己研发视觉模型。这次曝光的三款产品形态各异,分别是配备摄像头的AirPods、智能眼镜和吊坠式装置。它们共同组成了全场景感知网络。带摄像头的AirPods预计2026年就会上市。这个产品在原来AirPods基础上加了摄像头,可以用来给AI提供环境信息,主要用于提供视觉数据而非拍照。智能眼镜预计2027年推出,它会对标Meta Ray-Ban的高端设备。这个眼镜没有显示屏设计,有高分辨率摄像头和第二个摄像头用来提供视觉信息。用户可以通过它和Siri交流、打电话、听音乐甚至拍照录视频。吊坠式装置大小和AirTag差不多,可以夹在衣服上或挂在项链上。它有低分辨率摄像头和麦克风,方便用户和Siri对话。这些新硬件不仅是单纯的堆砌硬件而已,苹果还依托端侧AI与隐私计算来构建核心壁垒。苹果把所有视觉感知和AI计算都放在用户设备端完成而不是云端处理。这种方式减少了数据暴露风险也保护了隐私安全同时还降低了延迟提高了响应速度。芯片积累是端侧视觉AI技术的基础,在神经网络引擎的支持下,M系列芯片与H系列耳机芯片让苹果能够轻松处理复杂的视觉识别任务。这次三款设备还需要深度连接iPhone并与Siri进行无缝互动从而形成完整的硬件-服务-数据闭环生态。不同于快速发布迭代的策略,苹果的视觉AI战略是循序渐进地搭建技术体系和生态框架。这三款新品只是整个计划的一小部分而已未来还会不断完善视觉AI的覆盖范围让人机交互从屏幕触摸转向视觉感知。