苹果公司正加速布局人工智能增强设备领域,其智能眼镜项目已进入关键阶段。消息人士透露,苹果计划在2026年底推出首款智能眼镜,并为此暂时搁置了部分智能手表新功能的开发,将资源集中于攻克智能眼镜的技术瓶颈。这一举动显示了苹果对智能眼镜市场的高度重视,也预示着可穿戴设备领域的新一轮竞争即将到来。
这款被定位为“基于AI的基础型可穿戴设备”的智能眼镜,直接对标meta的Ray-Ban智能眼镜和谷歌的Android XR眼镜原型。与竞争对手的产品类似,苹果智能眼镜在设计上追求轻便精致,预计将配备摄像头、麦克风阵列和微型扬声器,支持拍照、录像、实时翻译、导航、音乐播放及通话等功能。用户可以通过Siri语音助手进行交互,设备还能根据用户所见景象提供即时反馈。值得注意的是,首批产品暂不具备增强现实(AR)功能,这可能意味着苹果希望优先打磨核心体验,避免在初期就追求过于复杂的技术实现。

目前,苹果正在积极筹备原型机的量产测试。据参与测试的工程师透露,苹果智能眼镜的外形与meta Ray-Ban智能眼镜相似,但在工艺和细节上更加精细。该项目由苹果内部负责Vision Pro等产品的Vision产品事业部主导,这表明苹果希望将Vision Pro的成功经验复制到智能眼镜的开发中。预计今年年底,苹果将开始与海外供应商合作,进行大批量原型机生产,为后续的量产上市做好准备。这一举措体现了苹果在硬件制造方面的强大实力和供应链管控能力。
苹果在AI战略上选择了与竞争对手不同的路径。与meta和谷歌依赖外部AI平台不同,苹果坚持完全依赖自主研发的AI模型。然而,苹果内部研发团队也对自身的AI技术储备表示了一定程度的担忧。当前,iPhone的视觉智能功能在一定程度上还依赖于谷歌和OpenAI的技术支持,而竞品的智能眼镜则已基于各自的AI平台运行。为了实现硬件的高度自主化,苹果正在加速开发替代方案,力求在软件层面也摆脱对外依赖。
近期,苹果发布了专为Apple Silicon设备优化的视觉语言模型FastVLM,提供了0.5B、1.5B和7B三个版本。这一模型能够在保持精度的同时,实现高分辨率图像的近实时处理,并且计算量远低于市场上同类模型。技术文档明确指出,FastVLM的应用场景之一正是苹果正在研发的智能眼镜等穿戴设备。FastVLM的推出,标志着苹果在AI模型自主研发方面取得了重要进展,也为智能眼镜项目提供了关键的技术支撑。
苹果智能眼镜能否在竞争激烈的市场中脱颖而出,取决于其能否在用户体验、功能创新和AI技术方面实现突破。尽管首批产品可能不具备AR功能,但其在拍照、翻译、导航等方面的潜力依然值得期待。同时,苹果坚持自主研发AI模型的战略,虽然面临一定的挑战,但长期来看,有助于提升其在智能眼镜市场的竞争力。未来,智能眼镜市场将迎来更多的创新和变革,让我们拭目以待。